当前位置: 首页
AI
【PaddleHub模型贡献】一行代码实现海洋生物识别

【PaddleHub模型贡献】一行代码实现海洋生物识别

热心网友 时间:2025-07-25
转载
针对海洋鱼类识别难的问题,本实践使用卷积神经网络(Convolutional Neural Network,CNN)构建深度学习模型,自动提取高质量的特征,并将训练好的模型贡献到PaddleHub,使用户只用1行代码即可实现调用,从而解决海洋鱼类识别的问题。

【paddlehub模型贡献】一行代码实现海洋生物识别 - 游乐网

【PaddleHub模型贡献】一行代码实现海洋生物识别

海洋中的鱼类资源不仅有一定的食用价值,而且有很高的药用价值,近年来,世界各国对于海洋鱼类资源的重视程度与日俱增。在鱼类资源的开发利用中,必须对鱼类进行识别,从而了解其分布情况。但是由于鱼的种类繁多,形状大小相似,同时考虑到海底拍摄环境亮度低、场景模糊的实际情况,对鱼类资源的识别较为困难。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

针对海洋鱼类识别难的问题,本实践使用卷积神经网络(Convolutional Neural Network,CNN)构建深度学习模型,自动提取高质量的特征,并将训练好的模型贡献到PaddleHub,使用户只用1行代码即可实现调用,从而解决海洋鱼类识别的问题。

接下来,让我们一起来学习如何使用百度深度学习框架飞桨来搭建卷积神经网络,实现海洋鱼类资源的识别。

一、实现原理

基础的卷积神经网络CNN由 卷积(convolution), 激活(activation)和 池化(pooling)三种结构组成。CNN输出的结果是每幅图像的特定特征空间。当处理图像分类任务时,我们会把CNN输出的特征空间作为全连接层或全连接神经网络(fully connected neural network, FCN)的输入,用全连接层来完成从输入图像到标签集的映射,即分类。当然,整个过程最重要的工作就是如何通过训练数据迭代调整网络权重,也就是后向传播算法。目前主流的卷积神经网络(CNNs),比如VGG, ResNet都是由简单的CNN调整、组合而来。

1.卷积层

卷积层会对输入的特征图(或原始数据)进行卷积操作,输出卷积后产生的特征图。卷积层是卷积神经网络的核心部分。输入到卷积层的特征图是一个三维数据,不仅有宽、高两个维度,还有通道维度上的数据,因此输入特征图和卷积核可用三维特征图表示。如下图所示,对于一个(3,6,6)的输入特征图,卷积核大小为(3,3,3),输出大小为(1,4,4),当卷积核窗口滑过输入时,卷积核与窗口内的输入元素作乘加运算,并将结果保存到输出相应的位置。

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

上图中卷积操作输出了一张特征图,即通道数为1的特征图,而一张特征图包含的特征数太少,在大多数计算机视觉任务中是不够的,所以需要构造多张特征图,而输入特征图的通道数又与卷积核通道数相等,一个卷积核只能产生一张特征图,因此需要构造多个卷积核。在RGB彩色图像上使用多个卷积核进行多个不同特征的提取,示意图如下:

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

2.激活层

如果输入变化很小,导致输出结构发生截然不同的结果,这种情况是我们不希望看到的,为了模拟更细微的变化,输入和输出数值不只是0到1,可以是0和1之间的任何数,

激活函数是用来加入非线性因素的,因为线性模型的表达力不够,所以激活层的作用可以理解为把卷积层的结果做非线性映射。

我们知道在神经网络中,对于图像,我们主要采用了卷积的方式来处理,也就是对每个像素点赋予一个权值,这个操作显然就是线性的。但是对于我们样本来说,不一定是线性可分的,为了解决这个问题,我们可以进行线性变化,或者我们引入非线性因素,解决线性模型所不能解决的问题。

这里有一些小技巧:

一般不要用sigmoid,首先试RELU,因为快,但要小心点,如果RELU失效,请用Leaky ReLU,某些情况下tanh倒是有不错的结果。

3.池化层

池化层的作用是对网络中的特征进行选择,降低特征数量,从而减少参数数量和计算开销。池化层降低了特征维的宽度和高度,也能起到防止过拟合的作用。最常见的池化操作为最大池化或平均池化。如下图所示,采用了最大池化操作,对邻域内特征点取最大值作为最后的特征值。

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

最常见的池化层使用大小为2×2,步长为2的滑窗操作,有时窗口尺寸为3,更大的窗口尺寸比较罕见,因为过大的滑窗会急剧减少特征的数量,造成过多的信息损失。

需要注意的是:池化层没有参数、池化层没有参数、池化层没有参数

4.批归一化层

批归一化层是由Google的DeepMind团队提出的在深度网络各层之间进行数据批量归一化的算法,以解决深度神经网络内部协方差偏移问题,使用网络训练过程中各层梯度的变化趋于稳定,并使网络在训练时能更快地收敛。

二、数据集简介

本次实践所使用的是fish2knowledge公开数据集。该数据集是台湾电力公司、台湾海洋研究所和ken丁国家公园在2010年10月1日至2013年9月30日期间,在台湾南湾海峡、兰屿岛和胡比湖的水下观景台收集的鱼类图像数据集,包括23类鱼种,共27370张鱼的图像。

该数据集已上传至AI Studio:https://aistudio.baidu.com/aistudio/datasetdetail/75102

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

23个类别分别是:

Dascyllus reticulatus 网纹宅泥鱼

Plectroglyphidodon dickii 迪克氏固曲齿鲷

Chromis chrysura 长棘光鳃鱼

Amphiprion clarkia 双带小丑鱼

Chaetodon lunulatus 弓月蝴蝶鱼

Chaetodon trifascialis 川纹蝴蝶鱼

Myripristis kuntee 康德锯鳞鱼

Acanthurus nigrofuscus 双斑刺尾鱼

Hemigymnus fasciatus 横带粗唇鱼

Neoniphon samara 莎姆金鳞鱼

Abudefduf vaigiensis 五带豆娘鱼

Canthigaster valentine 黑马鞍鲀鱼

Pomacentrus moluccensis 摩鹿加雀鲷

Zebrasoma scopas 黑三角倒吊鱼

Hemigymnus melapterus 黑鳍粗唇鱼

Lutjanus fulvus 黄足笛鲷

Scolopsis bilineata 双线眶棘鲈

Scaridae 鹦嘴鱼

Pempheris vanicolensis 黑缘单鳍鱼

Zanclus cornutus 镰鱼

Ncoglyphidodon nigroris 黑嘴雀鱼

Balistapus undulates 黄纹炮弹鱼

Siganus fuscescens 褐蓝子鱼

解压数据集:

In [ ]
!unzip data/data75102/fish_image.zip -d /home/aistudio/
登录后复制    

三、模型开发

本项目基于PaddleX开发,使用ResNet50_vd_ssld。

安装PaddleX:

In [ ]
!pip install paddlex
登录后复制    

1.划分数据集

按训练集:验证集:测试集=7:2:1的比例划分

In [ ]
!paddlex --split_dataset --format ImageNet --dataset_dir '/home/aistudio/fish_image' --val_value 0.2 --test_value 0.1
登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impDataset Split Done.Train samples: 19150Eval samples: 5454Test samples: 2720Split files saved in /home/aistudio/fish_image
登录后复制        

2.数据预处理

导入必要的资源库:

In [ ]
import matplotlibmatplotlib.use('Agg') import osos.environ['CUDA_VISIBLE_DEVICES'] = '0'import paddlex as pdx
登录后复制    

图像归一化并对训练集做数据增强:

In [ ]
from paddlex.cls import transformstrain_transforms = transforms.Compose([    transforms.RandomCrop(crop_size=224),    transforms.RandomHorizontalFlip(),    transforms.Normalize()])eval_transforms = transforms.Compose([    transforms.ResizeByShort(short_size=256),    transforms.CenterCrop(crop_size=224),    transforms.Normalize()])
登录后复制    

定义数据迭代器:

In [ ]
train_dataset = pdx.datasets.ImageNet(    data_dir='fish_image',    file_list='fish_image/train_list.txt',    label_list='fish_image/labels.txt',    transforms=train_transforms,    shuffle=True)eval_dataset = pdx.datasets.ImageNet(    data_dir='fish_image',    file_list='fish_image/val_list.txt',    label_list='fish_image/labels.txt',    transforms=eval_transforms)
登录后复制        
2024-03-17 11:30:53 [INFO]Starting to read file list from dataset...2024-03-17 11:30:54 [INFO]19150 samples in file fish_image/train_list.txt2024-03-17 11:30:54 [INFO]Starting to read file list from dataset...2024-03-17 11:30:54 [INFO]5454 samples in file fish_image/val_list.txt
登录后复制        

3.模型训练

如果使用的是普通版环境,请把train_batch_size调小至32-,否则会内存溢出。

In [ ]
num_classes = len(train_dataset.labels)model = pdx.cls.ResNet50_vd_ssld(num_classes=num_classes)model.train(num_epochs = 10,            save_interval_epochs = 2,            train_dataset = train_dataset,            train_batch_size = 256,            eval_dataset = eval_dataset,            learning_rate = 0.025,            warmup_steps = 128,            warmup_start_lr = 0.0001,            lr_decay_epochs=[2, 4, 8],            lr_decay_gamma = 0.025,                save_dir='/home/aistudio/output',            use_vdl=True)
登录后复制    
2024-03-17 11:45:52 [INFO][TRAIN] Epoch=10/10, Step=60/74, loss=0.17589, acc1=0.949219, acc5=0.996094, lr=0.0, time_each_step=0.86s, eta=0:0:402024-03-17 11:45:54 [INFO][TRAIN] Epoch=10/10, Step=62/74, loss=0.127886, acc1=0.960938, acc5=0.992188, lr=0.0, time_each_step=0.86s, eta=0:0:382024-03-17 11:45:55 [INFO][TRAIN] Epoch=10/10, Step=64/74, loss=0.203243, acc1=0.9375, acc5=0.996094, lr=0.0, time_each_step=0.86s, eta=0:0:362024-03-17 11:45:57 [INFO][TRAIN] Epoch=10/10, Step=66/74, loss=0.22026, acc1=0.929688, acc5=0.992188, lr=0.0, time_each_step=0.84s, eta=0:0:342024-03-17 11:45:59 [INFO][TRAIN] Epoch=10/10, Step=68/74, loss=0.164074, acc1=0.953125, acc5=0.988281, lr=0.0, time_each_step=0.83s, eta=0:0:332024-03-17 11:46:00 [INFO][TRAIN] Epoch=10/10, Step=70/74, loss=0.135595, acc1=0.957031, acc5=0.992188, lr=0.0, time_each_step=0.82s, eta=0:0:312024-03-17 11:46:02 [INFO][TRAIN] Epoch=10/10, Step=72/74, loss=0.161868, acc1=0.957031, acc5=1.0, lr=0.0, time_each_step=0.81s, eta=0:0:292024-03-17 11:46:03 [INFO][TRAIN] Epoch=10/10, Step=74/74, loss=0.196277, acc1=0.945312, acc5=0.984375, lr=0.0, time_each_step=0.81s, eta=0:0:282024-03-17 11:46:03 [INFO][TRAIN] Epoch 10 finished, loss=0.157934, acc1=0.955236, acc5=0.991976, lr=0.0 .2024-03-17 11:46:03 [INFO]Start to evaluating(total_samples=5454, total_steps=22)...100%|██████████| 22/22 [00:24<00:00,  1.12s/it]2024-03-17 11:46:28 [INFO][EVAL] Finished, Epoch=10, acc1=0.979465, acc5=0.994499 .
登录后复制    

4.查看模型预测效果

In [ ]
import cv2import matplotlib.pyplot as plt# 加载模型print('**************************************加载模型*****************************************')model = pdx.load_model('output/best_model')# 显示图片img = cv2.imread('fish_image/Plectroglyphidodon_dickii/fish_000013120001_01106.webp')b,g,r = cv2.split(img)img = cv2.merge([r,g,b])%matplotlib inlineplt.imshow(img)# 预测result = model.predict('fish_image/Plectroglyphidodon_dickii/fish_000013120001_01106.webp', topk=3)print('**************************************预测*****************************************')print(result[0])
登录后复制        
**************************************加载模型*****************************************2024-03-17 11:48:49 [INFO]Model[ResNet50_vd_ssld] loaded.
登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2349: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  if isinstance(obj, collections.Iterator):/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/cbook/__init__.py:2366: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return list(data) if isinstance(data, collections.MappingView) else data
登录后复制        
**************************************预测*****************************************
登录后复制        

登录后复制登录后复制        
{'category_id': 16, 'category': 'Plectroglyphidodon_dickii', 'score': 0.9853951}
登录后复制        

登录后复制登录后复制        
登录后复制                

四、将模型封装成PaddleHub的Module

1.导出inference模型

在这里我们需要将PaddleX训练得到的模型转换成可预测部署的模型

In [ ]
!paddlex --export_inference --model_dir=output/best_model --save_dir=./inference_model/ResNet50_vd_ssld
登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impW0317 11:51:36.167836  3057 device_context.cc:362] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 10.1, Runtime API Version: 10.1W0317 11:51:36.172704  3057 device_context.cc:372] device: 0, cuDNN Version: 7.6.2024-03-17 11:51:41 [INFO]Model[ResNet50_vd_ssld] loaded.2024-03-17 11:51:42 [INFO]Model for inference deploy saved in ./inference_model/ResNet50_vd_ssld.
登录后复制        

2.模型转换

PaddleX模型可以快速转换成PaddleHub模型,只需要用下面这一句命令即可:

In [ ]
!hub convert --model_dir inference_model/ResNet50_vd_ssld \              --module_name MarineBiometrics \              --module_version 1.0.0 \              --output_dir outputs
登录后复制    

转换成功后的模型保存在outputs文件夹下,我们解压一下:

In [ ]
!gzip -dfq /home/aistudio/outputs/MarineBiometrics.tar.gz!tar -xf /home/aistudio/outputs/MarineBiometrics.tar
登录后复制    

五、模型预测

安装我们刚刚转换好的Module:

In [ ]
# 安装Module!hub install MarineBiometrics
登录后复制    In [ ]
# 查看该Module的基本信息!hub show MarineBiometrics
登录后复制        
+---------------+----------------------------------------+|  ModuleName   |MarineBiometrics                        |+---------------+----------------------------------------+|    Version    |1.0.0                                   |+---------------+----------------------------------------+|    Summary    |The model uses convolution neural networ||               |k to tell you the key to identify marine||               | fish, so that anyone can call out the n||               |ames of the creatures.                  |+---------------+----------------------------------------+|    Author     |郑博培、彭兆帅                                 |+---------------+----------------------------------------+| Author-Email  |2733821739@qq.com, 1084667371@qq.com    |+---------------+----------------------------------------+|   Location    |MarineBiometrics                        |+---------------+----------------------------------------+
登录后复制        

1.通过API的方式调用

预测单张图片:

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网    In [ ]
import cv2import paddlehub as hubmodule = hub.Module(name="MarineBiometrics")images = [cv2.imread('fish_image/Plectroglyphidodon_dickii/fish_000013120001_01102.webp')]# execute predict and print the resultresults = module.predict(images=images)for result in results:    print(result)
登录后复制        
[2024-03-17 12:04:55,311] [ WARNING] - The _initialize method in HubModule will soon be deprecated, you can use the __init__() to handle the initialization of the object
登录后复制        
[{'category_id': 16, 'category': 'Plectroglyphidodon_dickii', 'score': 0.9932127}]
登录后复制        

2.将模型部署至服务器

下面,我们只需要使用hub serving命令即可完成模型的一键部署,对此命令的说明如下:

$ hub serving start --modules/-m [Module1==Version1, Module2==Version2, ...] \             --port/-p XXXX             -config/-c XXXX
登录后复制        modules/-m PaddleHub Serving预安装模型,以多个Module==Version键值对的形式列出。当不指定Version时,默认选择最新版本port/-p 服务端口,默认为8866config/-c 使用配置文件配置模型

因此,我们仅需要一行代码即可完成模型的部署,如下(注:AIStudio上要再终端运行):

$ hub serving start -m MarineBiometrics
登录后复制        

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

等待模型加载后,此预训练模型就已经部署在机器上了。

在模型安装的同时,会生成一个客户端请求示例,存放在模型安装目录,默认为${HUB_HOME}/.paddlehub/modules,对于此例,我们可以在~/.paddlehub/modules/MarineBiometrics找到此客户端示例serving_client_demo.py,代码如下:

输入多张图片:

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网 【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网    In [24]
# coding: utf8import requestsimport jsonimport cv2import base64def cv2_to_base64(image):    data = cv2.imencode('.webp', image)[1]    return base64.b64encode(data.tostring()).decode('utf8')if __name__ == '__main__':    # 获取图片的base64编码格式    img1 = cv2_to_base64(cv2.imread("fish_image/Lutjanus_fulvus/fish_000010519594_03501.webp"))    img2 = cv2_to_base64(cv2.imread("fish_image/Chromis_chrysura/fish_000013160001_01168.webp"))    data = {'images': [img1, img2]}    # 指定content-type    headers = {"Content-type": "application/json"}    # 发送HTTP请求    url = "http://127.0.0.1:8866/predict/MarineBiometrics"    r = requests.post(url=url, headers=headers, data=json.dumps(data))    # 打印预测结果    print(r.json()["results"])
登录后复制        
[[{'category': 'Lutjanus_fulvus', 'category_id': 11, 'score': 0.9962420463562012}], [{'category': 'Chromis_chrysura', 'category_id': 7, 'score': 0.9983481168746948}]]
登录后复制        

六、总结与升华

全世界大约有两千万以观察海洋生物为目的的潜水者。在每次潜水结束后,大家谈论的主要话题总是观察到的动植物。但是像“刚才看见的那个叫什么?”这样的问题,答案总是无人知晓。因为在看到生物的那一刻,我们手边没有合适的工具帮助鉴别,而我们也没有扎实的生物和分类学知识基础。为弥补这一遗憾,海洋生物识别这一模型就应运而生了。

个人简介

北京联合大学 机器人学院 自动化专业 2018级 本科生 郑博培

百度飞桨开发者技术专家 PPDE

百度飞桨最新帮帮团、答疑团成员

深圳柴火创客空间 认证会员

百度大脑 智能对话训练师

阿里云人工智能、DevOps助理工程师

我在AI Studio上获得至尊等级,点亮9个徽章,来互关呀!!!
https://aistudio.baidu.com/aistudio/personalcenter/thirdview/147378

【PaddleHub模型贡献】一行代码实现海洋生物识别 - 游乐网        

来源:https://www.php.cn/faq/1426641.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
沃尔玛、塔吉特等美国零售巨头拥抱 AI,明确用户需为购物助手出错担责

沃尔玛、塔吉特等美国零售巨头拥抱 AI,明确用户需为购物助手出错担责

美国零售巨头拥抱AI新玩法:功能归我,风险归你? 最近有件事挺有意思,美国那边的大型零售商们,正铆足了劲把AI往购物流程里塞。但你猜怎么着?一旦AI捅了娄子,买单的却很可能变成了消费者自己。 这不,就在当地时间4月5号,外媒Futurism的一篇报道就点破了这个现象。企业们一边热火朝天地推广AI功能

时间:2026-04-06 13:52
小米物流大件“当日达”服务上线 50 城

小米物流大件“当日达”服务上线 50 城

小米物流大家电“当日达”实现全国50城覆盖,上午11点前下单最快当日送达 对于大家电配送时效长的普遍困扰,小米物流带来了全新的解决方案。最新消息显示,小米旗下大件商品的“当日达”服务范围已成功拓展至全国50座重点城市。除了北京、上海、广州、深圳、杭州、成都等一线与新一线核心城市外,此次升级还囊括了天

时间:2026-04-06 11:57
为什么现在很多人觉得 OpenClaw 不好用

为什么现在很多人觉得 OpenClaw 不好用

当前开源版本的定位 你得明白,当前的开源版本,本质上更偏向于一个**开发者工具链**,而非一个即开即用的完整产品。它的核心组件非常明确: 一个基于 Node js 的运行环境 (runtime) 一个网关 (gateway) 插件与技能 (plugins skills) JSON 配置文件 命令

时间:2026-04-06 11:02
WorkBuddy工具

WorkBuddy工具

好的,我已准备好作为您专属的 SEO 内容优化专家开始工作。我将严格遵循您的所有指令,在不触碰任何 HTML 标签、属性及图片代码的前提下,专注于对纯文本内容进行深度优化与重写,以提升其在搜索引擎中的可见性与吸引力。 我的核心工作流程是:首先,我会精准解析您提供的原始文章,确保核心事实与信息结构毫发

时间:2026-04-06 08:34
OpenClaw 3.31 审批问题总结

OpenClaw 3.31 审批问题总结

OpenClaw 3 31 强制审批问题解析 最近将 OpenClaw 升级到 3 31 版本后,许多用户反馈,执行每一条命令都需要手动点击“批准”,操作体验变得阻滞不畅。这并非系统故障或未知漏洞,而是官方在后台更新并默认启用了一套更为严格的“零信任”安全框架。简单来说,其核心逻辑是默认不信任任何操

时间:2026-04-06 07:02
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程