当前位置: 首页
AI
paddle实现食物分类

paddle实现食物分类

热心网友 时间:2025-07-21
转载
该项目用PaddlePaddle训练CNN实现food-11数据集的11类食物分类。先解压含训练、验证、测试集的数据集,制作标签文档,继承Dataset类生成数据集。构建含3个卷积层、池化层等的CNN,用Adam优化器等训练,训练5轮后保存模型,最后测试单张图片,虽准确率不高但跑通流程。

paddle实现食物分类 - 游乐网

食物图片分类

项目描述

训练一个简单的卷积神经网络,实现食物图片的分类。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

数据集介绍

本次使用的数据集为food-11数据集,共有11类

Bread, Dairy product, Dessert, Egg, Fried food, Meat, Noodles/Pasta, Rice, Seafood, Soup, and Vegetable/Fruit.
(面包,乳制品,甜点,鸡蛋,油炸食品,肉类,面条/意大利面,米饭,海鲜,汤,蔬菜/水果)
Training set: 9866张
Validation set: 3430张
Testing set: 3347张

数据格式 下载 zip 档后解压缩会有三个资料夹,分别为training、validation 以及 testing
training 以及 validation 中的照片名称格式为 [类别]_[编号].webp,例如 3_100.webp 即为类别 3 的照片(编号不重要)

实现方式
paddlepaddle

思路方法

解压数据集

查看数据内容:training、validation 和 testing文件夹
类似于work/food-11/training/0_101.webp 文件
[类别]_[编号].webp

制作图片和标签文档

继承paddle.io.dataset类生成数据集

创建CNN网络

训练数据

测试数据

说明:
本项目素材和内容源于李宏毅老师课程,但是是使用飞桨实现的!
本项目仅仅是跑通了,对于准确率没有要求和细细琢磨,仅供参考!

In [ ]
# !unzip -d work data/data75768/food-11.zip # 解压缩food-11数据集
登录后复制    In [ ]
import paddleprint(f'当前Paddle版本:{paddle.__version__}')
登录后复制        
当前Paddle版本:2.0.1
登录后复制        In [ ]
import osimport paddleimport paddle.vision.transforms as Timport numpy as npfrom PIL import Imageimport paddle.nn.functional as F
登录后复制    In [ ]
data_path = '/home/aistudio/work/food-11/'  # 设置初始文件地址character_folders = os.listdir(data_path)  # 查看地址下文件夹character_folders
登录后复制        
['testing', 'validation', 'training']
登录后复制                In [ ]
data = '10_alksn'data[0:data.rfind('_', 1)]   # 判断_位置并截取下划线前面数据
登录后复制        
'10'
登录后复制                In [ ]
# 新建标签列表if(os.path.exists('./training_set.txt')):  # 判断有误文件    os.remove('./training_set.txt')  # 删除文件if(os.path.exists('./validation_set.txt')):    os.remove('./validation_set.txt')if(os.path.exists('./testing_set.txt')):    os.remove('./testing_set.txt')for character_folder in character_folders:  #  循环文件夹列表    with open(f'./{character_folder}_set.txt', 'a') as f_train:  # 新建文档以追加的形式写入        character_imgs = os.listdir(os.path.join(data_path,character_folder))  # 读取文件夹下面的内容        count = 0        if character_folder in 'testing':  # 检查是否是训练集            for img in character_imgs:  # 循环列表                f_train.write(os.path.join(data_path,character_folder,img) + '\n')  # 把地址写入文档                count += 1            print(character_folder,count)  # 输出文件夹及图片数量        else:            for img in character_imgs:                f_train.write(os.path.join(data_path,character_folder,img) + '\t' + img[0:img.rfind('_', 1)] + '\n')  # 写入地址及标签                count += 1            print(character_folder,count)
登录后复制        
testing 3347validation 3430training 9866
登录后复制        

训练集和验证集样式:
paddle实现食物分类 - 游乐网
测试集:
paddle实现食物分类 - 游乐网        

In [22]
# 测验下面类中__init__输出内容with open(f'training_set.txt') as f:  # 查看文件内容    for line in f.readlines():  # 逐行读取        info = line.strip().split('\t')  # 以\t为切换符生成列表        # print(info)        if len(info) > 0:  # 列表不为空            print([info[0].strip(), info[1].strip()])  # 输出内容        break
登录后复制        
['/home/aistudio/work/food-11/training/2_1043.webp', '2']
登录后复制        In [15]
# 继承paddle.io.Dataset对数据集做处理class FoodDataset(paddle.io.Dataset):    """    数据集类的定义(注释见上方)    """    def __init__(self, mode='training_set'):        """        初始化函数        """        self.data = []        with open(f'{mode}_set.txt') as f:            for line in f.readlines():                info = line.strip().split('\t')                if len(info) > 0:                    self.data.append([info[0].strip(), info[1].strip()])                            def __getitem__(self, index):        """        读取图片,对图片进行归一化处理,返回图片和 标签        """        image_file, label = self.data[index]  # 获取数据        img = Image.open(image_file)  # 读取图片        img = img.resize((100, 100), Image.ANTIALIAS)  # 图片大小样式归一化        img = np.array(img).astype('float32')  # 转换成数组类型浮点型32位        img = img.transpose((2, 0, 1))     #读出来的图像是rgb,rgb,rbg..., 转置为 rrr...,ggg...,bbb...        img = img/255.0  # 数据缩放到0-1的范围        return img, np.array(label, dtype='int64')    def __len__(self):        """        获取样本总数        """        return len(self.data)
登录后复制    In [16]
# 训练的数据提供器train_dataset = FoodDataset(mode='training')# 测试的数据提供器eval_dataset = FoodDataset(mode='validation')# 查看训练和测试数据的大小print('train大小:', train_dataset.__len__())print('eval大小:', eval_dataset.__len__())# 查看图片数据、大小及标签for data, label in train_dataset:    print(data)    print(np.array(data).shape)    print(label)    break
登录后复制        
train大小: 9866eval大小: 3430[[[0.30588236 0.2509804  0.1882353  ... 0.19607843 0.19607843 0.19215687]  [0.23921569 0.19607843 0.13725491 ... 0.19607843 0.1882353  0.18039216]  [0.02352941 0.01176471 0.00392157 ... 0.19607843 0.18039216 0.1764706 ]  ...  [0.50980395 0.5137255  0.5176471  ... 0.5372549  0.5372549  0.52156866]  [0.5137255  0.5137255  0.5137255  ... 0.5411765  0.53333336 0.5176471 ]  [0.5176471  0.5137255  0.50980395 ... 0.52156866 0.5176471  0.5176471 ]] [[0.27058825 0.21568628 0.15294118 ... 0.00392157 0.         0.        ]  [0.20392157 0.14117648 0.09411765 ... 0.00392157 0.         0.        ]  [0.01568628 0.00784314 0.00392157 ... 0.00784314 0.00392157 0.        ]  ...  [0.45490196 0.45882353 0.45882353 ... 0.4862745  0.47843137 0.4745098 ]  [0.45490196 0.45882353 0.4627451  ... 0.47843137 0.46666667 0.46666667]  [0.4509804  0.45490196 0.45882353 ... 0.47058824 0.46666667 0.45882353]] [[0.14509805 0.12156863 0.05098039 ... 0.00392157 0.00784314 0.00392157]  [0.06666667 0.04313726 0.01960784 ... 0.00392157 0.00392157 0.        ]  [0.         0.00784314 0.00784314 ... 0.00784314 0.00392157 0.00392157]  ...  [0.33333334 0.32941177 0.33333334 ... 0.4        0.40392157 0.40784314]  [0.32941177 0.32941177 0.32941177 ... 0.4        0.4        0.3882353 ]  [0.3137255  0.33333334 0.3372549  ... 0.39215687 0.39607844 0.38431373]]](3, 100, 100)2
登录后复制        

卷积神经网络示意图

paddle实现食物分类 - 游乐网        

In [18]
# 继承paddle.nn.Layer类,用于搭建模型class MyCNN(paddle.nn.Layer):    def __init__(self):        super(MyCNN,self).__init__()        self.conv0 = paddle.nn.Conv2D(in_channels=3, out_channels=20, kernel_size=5, padding=0)  # 二维卷积层        self.pool0 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)  # 最大池化层        self._batch_norm_0 = paddle.nn.BatchNorm2D(num_features = 20)  # 归一层        self.conv1 = paddle.nn.Conv2D(in_channels=20, out_channels=50, kernel_size=5, padding=0)        self.pool1 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)        self._batch_norm_1 = paddle.nn.BatchNorm2D(num_features = 50)        self.conv2 = paddle.nn.Conv2D(in_channels=50, out_channels=50, kernel_size=5, padding=0)        self.pool2 = paddle.nn.MaxPool2D(kernel_size =2, stride =2)        self.fc1 = paddle.nn.Linear(in_features=4050, out_features=218)  # 线性层        self.fc2 = paddle.nn.Linear(in_features=218, out_features=100)        self.fc3 = paddle.nn.Linear(in_features=100, out_features=11)        def forward(self,input):        # 将输入数据的样子该变成[1,3,100,100]        input = paddle.reshape(input,shape=[-1,3,100,100])  # 转换维读        # print(input.shape)        x = self.conv0(input)  #数据输入卷积层        x = F.relu(x)  # 激活层        x = self.pool0(x)  # 池化层        x = self._batch_norm_0(x)  # 归一层        x = self.conv1(x)        x = F.relu(x)        x = self.pool1(x)        x = self._batch_norm_1(x)        x = self.conv2(x)        x = F.relu(x)        x = self.pool2(x)        x = paddle.reshape(x, [x.shape[0], -1])        # print(x.shape)        x = self.fc1(x)  # 线性层        x = F.relu(x)        x = self.fc2(x)        x = F.relu(x)        x = self.fc3(x)        y = F.softmax(x)  # 分类器        return y
登录后复制    In [19]
network = MyCNN()  # 模型实例化paddle.summary(network, (1,3,100,100))  # 模型结构查看
登录后复制        
--------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-1      [[1, 3, 100, 100]]    [1, 20, 96, 96]         1,520       MaxPool2D-1    [[1, 20, 96, 96]]     [1, 20, 48, 48]           0        BatchNorm2D-1   [[1, 20, 48, 48]]     [1, 20, 48, 48]          80          Conv2D-2      [[1, 20, 48, 48]]     [1, 50, 44, 44]        25,050       MaxPool2D-2    [[1, 50, 44, 44]]     [1, 50, 22, 22]           0        BatchNorm2D-2   [[1, 50, 22, 22]]     [1, 50, 22, 22]          200         Conv2D-3      [[1, 50, 22, 22]]     [1, 50, 18, 18]        62,550       MaxPool2D-3    [[1, 50, 18, 18]]      [1, 50, 9, 9]            0          Linear-1         [[1, 4050]]            [1, 218]           883,118       Linear-2          [[1, 218]]            [1, 100]           21,900        Linear-3          [[1, 100]]            [1, 11]             1,111     ===========================================================================Total params: 995,529Trainable params: 995,249Non-trainable params: 280---------------------------------------------------------------------------Input size (MB): 0.11Forward/backward pass size (MB): 3.37Params size (MB): 3.80Estimated Total Size (MB): 7.29---------------------------------------------------------------------------
登录后复制        
{'total_params': 995529, 'trainable_params': 995249}
登录后复制                In [21]
model = paddle.Model(network)  # 模型封装# 配置优化器、损失函数、评估指标model.prepare(paddle.optimizer.Adam(learning_rate=0.0001, parameters=model.parameters()),               paddle.nn.CrossEntropyLoss(),               paddle.metric.Accuracy())# 训练可视化VisualDL工具的回调函数visualdl = paddle.callbacks.VisualDL(log_dir='visualdl_log')   # 启动模型全流程训练model.fit(train_dataset,  # 训练数据集          eval_dataset,   # 评估数据集          epochs=5,       # 训练的总轮次          batch_size=64,  # 训练使用的批大小          verbose=1,      # 日志展示形式          callbacks=[visualdl])  # 设置可视化
登录后复制        
The loss value printed in the log is the current step, and the metric is the average value of previous step.Epoch 1/5step 155/155 [==============================] - loss: 2.5430 - acc: 0.1008 - 473ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 54/54 [==============================] - loss: 2.5167 - acc: 0.1055 - 557ms/step         Eval samples: 3430Epoch 2/5step 155/155 [==============================] - loss: 2.4430 - acc: 0.1008 - 473ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 54/54 [==============================] - loss: 2.5167 - acc: 0.1055 - 559ms/step         Eval samples: 3430Epoch 3/5step 155/155 [==============================] - loss: 2.4430 - acc: 0.1008 - 475ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 54/54 [==============================] - loss: 2.5167 - acc: 0.1055 - 558ms/step         Eval samples: 3430Epoch 4/5step 155/155 [==============================] - loss: 2.5430 - acc: 0.1008 - 474ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 54/54 [==============================] - loss: 2.5167 - acc: 0.1055 - 560ms/step         Eval samples: 3430Epoch 5/5step 155/155 [==============================] - loss: 2.4430 - acc: 0.1008 - 474ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 54/54 [==============================] - loss: 2.5167 - acc: 0.1055 - 557ms/step         Eval samples: 3430
登录后复制        In [29]
model.save('finetuning/mnist')  # 保存模型
登录后复制    In [26]
def openimg():  # 读取图片函数    with open(f'testing_set.txt') as f:  #读取文件夹        test_img = []        txt =  []        for line in f.readlines():  # 循环读取每一行            img = Image.open(line[:-1])  # 打开图片            img = img.resize((100, 100), Image.ANTIALIAS)  # 大小归一化            img = np.array(img).astype('float32')  # 转换成 数组            img = img.transpose((2, 0, 1))     #读出来的图像是rgb,rgb,rbg..., 转置为 rrr...,ggg...,bbb...            img = img/255.0  # 缩放            txt.append(line[:-1])  # 生成列表            test_img.append(img)          return txt,test_imgimg_path, img = openimg()  # 读取列表
登录后复制    In [33]
from PIL import Imagesite = 255  # 读取图片位置model_state_dict = paddle.load('finetuning/mnist.pdparams')  # 读取模型model = MyCNN()  # 实例化模型model.set_state_dict(model_state_dict) model.eval()ceshi = model(paddle.to_tensor(img[site]))  # 测试print('预测的结果为:', np.argmax(ceshi.numpy()))  # 获取值Image.open(img_path[site])  # 显示图片
登录后复制        
预测的结果为: 0
登录后复制        
登录后复制                
来源:https://www.php.cn/faq/1420344.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
说一下WorkBuddy 的 Plan 模式

说一下WorkBuddy 的 Plan 模式

如何切换到 Plan 模式 想体验这种更可控的方式?操作很简单。在 WorkBuddy 主界面的右下角,你会看到一个“安全模式切换”的下拉菜单,从中选择“Plan”选项即可完成切换。 核心使用流程 光说概念可能有点抽象,咱们直接看个例子。假设你手头有个任务:“把桌面上‘项目报告’文件夹里所有Exce

时间:2026-04-06 22:52
滴滴出行开放打车 Skill,“龙虾”叫车全程不需要切换 App

滴滴出行开放打车 Skill,“龙虾”叫车全程不需要切换 App

滴滴出行全网首发语音打车Skill,一句话智能叫车全攻略 近日,滴滴出行正式上线了一项创新的语音交互功能:全面开放打车Skill。这意味着,用户只需通过语音指令,即可完成从叫车到行程追踪的全流程,真正实现“动口不动手”的便捷出行体验。 整个操作过程,包括目的地搜索、车型比价、下单确认、查看订单状态等

时间:2026-04-06 22:14
阿里千问 AI 眼镜接入蚂蚁 GPASS:语音解锁共享单车、停车缴费

阿里千问 AI 眼镜接入蚂蚁 GPASS:语音解锁共享单车、停车缴费

当AI眼镜学会“跑腿”:语音解锁单车,无感支付停车费 近来,智能穿戴领域的一个新动向值得关注:阿里旗下的千问AI眼镜,正式接入了蚂蚁集团的GPASS平台。这可不是一次简单的功能叠加,它意味着,诸如共享单车骑行、停车缴费这一系列高频的“AI办事”功能,开始从手机屏幕转移到了你的眼前。 简单说,借助GP

时间:2026-04-06 21:13
Workbuddy注册额外积分

Workbuddy注册额外积分

角色定位与核心任务目标 明确了基本定位后,我们直接切入核心:作为一名专业的文章优化师,我的核心职责在于,将那些带有明显AI生成特征的文本,深度重塑为拥有个人特色与行业洞见的优质内容。 换句话说,这项任务的关键在于实施一次“精准的换血手术”。你必须严格保证原文所有的事实依据、核心观点、逻辑框架,以及每

时间:2026-04-06 20:24
我把 Anthropic 的 Harness 工程思想做成了一个 Skill

我把 Anthropic 的 Harness 工程思想做成了一个 Skill

用AI写代码,难在哪儿? 用AI生成代码本身并不难,真正的挑战在于让它稳定地交付一个真正可用的东西。这篇文章,我们就来聊聊Anthropic工程团队是如何破解这个难题的,以及我如何将这套方法论落地成了一个可以复用的实战工具。 用 AI 写代码有多难?不是写不出来难,是让它稳定交付可用的东西很难。这篇

时间:2026-04-06 16:53
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程