PaddleRS:无人机汽车识别
发布时间:2025-07-23 编辑:游乐网
该项目基于PaddleRS,利用0.05米分辨率的DFC2018 Houston数据集超高分辨率影像,裁剪出1400张图块并标注汽车,按9:1划分训练集和验证集。通过定义数据增强和数据集,使用PPYOLOv2模型训练,借助VDL查看效果,评估得较高map,最后实现模型预测及可视化。
PaddleRS:无人机汽车识别
基于0.5m的高分辨率无人机影像,我们希望能够使用目标检测的方法找到影像中的汽车。项目将基于PaddleRS完成该任务。
1 数据准备
数据来自于DFC2018 Houston,DFC2018 Houston 是2018年IEEE GRSS Data Fusion 比赛所用的数据集。这个数据是由 University of Houston Dr. Saurabh Prasad 的实验室制作公开的。这个数据是个多传感器数据,包含了48个波段的高光谱数据(1米),3波段的LiDAR数据(0.5米),以及超高分辨率影像(0.05米)。这个数据包含了20类地物。
只取用了其中0.05米分辨率的超高分辨率影像,裁剪为1400张596x601大小的图块,由手工标注汽车的矩形框,按照9:1划分训练集和数据集。
In [1]# 解压数据集! mkdir -p dataset! unzip -oq data/data56250/carDetection_RGB.zip -d dataset登录后复制 In [2]
# 划分数据集import osimport os.path as ospimport randomdef get_data_list(data_dir): random.seed(666) mode = ["train_list", "val_list"] dir_path = osp.join(data_dir, "JPEGImages") files = [f.split(".")[0] for f in os.listdir(dir_path)] random.shuffle(files) # 打乱顺序 with open(osp.join(data_dir, f"{mode[0]}.txt"), "w") as f_tr: with open(osp.join(data_dir, f"{mode[1]}.txt"), "w") as f_va: for i, name in enumerate(files): if (i % 10) == 0: # 训练集与测试集为9:1 f_va.write(f"JPEGImages/{name}.jpg Annotations/{name}.xml\n") else: f_tr.write(f"JPEGImages/{name}.jpg Annotations/{name}.xml\n") labels = ["car"] txt_str = "\n".join(labels) with open((data_dir + "/" + f"label_list.txt"), "w") as f: f.write(txt_str) print("Finished!")get_data_list("dataset")登录后复制
Finished!登录后复制
2 PaddleRS准备
PaddleRS是基于飞桨开发的遥感处理平台,支持遥感图像分类,目标检测,图像分割,以及变化检测等常用遥感任务,帮助开发者更便捷地完成从训练到部署全流程遥感深度学习应用。
github:https://github.com/PaddlePaddle/PaddleRS
接下来可以通过git clone得到PaddleRS。
In [7]! git clone https://github.com/PaddlePaddle/PaddleRS.git%cd PaddleRS! git checkout release/1.0! pip install --upgrade pip! pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple! python setup.py install%cd ..登录后复制
3 模型训练
PaddleRS借鉴PaddleSeg的API设计模式并进行了较高程度的封装,可以方便的完成数据、模型等的定义,快速开始模型的训练迭代。
3.1 数据定义
主要通过datasets和transforms两个组件完成任务,datasets中有包含分割检测分类等多任务的数据加载API,而transforms集成了大部分通用或单独的数据增强API,目前可以通过源码查看。
In [2]import osimport os.path as ospfrom paddlers.datasets import VOCDetDataset from paddlers import transforms as T# 定义数据增强train_transforms = T.Compose([ T.DecodeImg(), T.RandomDistort(), T.RandomCrop(), T.RandomHorizontalFlip(), T.BatchRandomResize( target_sizes=[512, 544, 576, 608, 640, 672, 704], interp='RANDOM'), T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('train')])eval_transforms = T.Compose([ T.DecodeImg(), T.Resize(target_size=608, interp='CUBIC'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('eval')])# 定义数据集data_dir = "dataset"train_file_list = osp.join(data_dir, 'train_list.txt')val_file_list = osp.join(data_dir, 'val_list.txt')label_file_list = osp.join(data_dir, 'label_list.txt')train_dataset = VOCDetDataset( data_dir=data_dir, file_list=train_file_list, label_list=label_file_list, transforms=train_transforms, shuffle=True)eval_dataset = VOCDetDataset( data_dir=data_dir, file_list=train_file_list, label_list=label_file_list, transforms=eval_transforms, shuffle=False)登录后复制
2024-03-08 18:57:32 [INFO]Starting to read file list from dataset...2024-03-08 18:57:39 [INFO]944 samples in file dataset/train_list.txt, including 944 positive samples and 0 negative samples.creating index...index created!2024-03-08 18:57:39 [INFO]Starting to read file list from dataset...2024-03-08 18:57:47 [INFO]944 samples in file dataset/train_list.txt, including 944 positive samples and 0 negative samples.creating index...index created!登录后复制 In [5]
# 检查及可视化数据import numpy as npimport cv2import matplotlib.pyplot as plt%matplotlib inline# 反归一化def in_normal(img): mean = np.array([0.485, 0.456, 0.406]) std = np.array([0.229, 0.224, 0.225]) img = (255 * (img * std + mean)).astype("uint8") return img# 绘制矩形框def visual(img, bboxs): for bbox in bboxs: x1, y1, x2, y2 = bbox cv2.rectangle(img, (x1, y1), (x2, y2), (255, 0, 0), 2) return imgfor data in train_dataset: img = in_normal(data["image"]) vis = visual(img, data["gt_bbox"]) plt.figure(figsize=(10, 10)) plt.imshow(img) plt.show() break登录后复制
登录后复制登录后复制
3.2 模型准备
PaddleRS将模型分别放置于models和custom_models中,分别包含了Paddle四大套件的模型结构以及与遥感、变化检测等相关的模型结构。通过tasks进行了模型的封装,集成了Loss、Opt、Metrics等,可根据需要进行修改。这里以默认的PPYOLOv2为例。
In [7]from paddlers.tasks.object_detector import PPYOLOv2num_classes = len(train_dataset.labels)model = PPYOLOv2(num_classes=num_classes)登录后复制 In [ ]
model.train( num_epochs=30, train_dataset=train_dataset, train_batch_size=16, eval_dataset=eval_dataset, pretrain_weights="COCO", learning_rate=3e-5, warmup_steps=10, warmup_start_lr=0.0, save_interval_epochs=5, lr_decay_epochs=[10, 20], save_dir="output", use_vdl=True)登录后复制
训练的效果可以通过VDL进行查看。
from paddlers.tasks import load_modelnew_model = load_model("output/best_model")登录后复制
2024-03-08 19:28:24 [INFO]Model[PPYOLOv2] loaded.登录后复制
4 模型评估
只需要调用evaluate即可完成预测。可以看到map还是挺高的。
In [10]new_model.evaluate(eval_dataset)登录后复制
2024-03-08 19:28:32 [INFO]Start to evaluate(total_samples=944, total_steps=944)...2024-03-08 19:29:17 [INFO]Accumulating evaluatation results...登录后复制
OrderedDict([('bbox_map', 90.35561807270788)])登录后复制
5 模型预测
PaddleRS的目标检测task可以方便的给出坐标、类别和分数,可供自行进行一些后处理。也可以直接使用visualize_detection进行可视化。下面对一张测试图像进行预测并可视化。
In [11]from paddlers.tasks.utils.visualize import visualize_detectionimport matplotlib.pyplot as plt%matplotlib inlinetest_transforms = T.Compose([ T.DecodeImg(), T.Resize(target_size=608, interp='CUBIC'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('test')])img_path = "dataset/JPEGImages/UH_NAD83_272056_3289689_58.jpg"pred = new_model.predict(img_path, test_transforms)vis_img = visualize_detection(img_path, pred, save_dir=None)plt.figure(figsize=(10, 10))plt.imshow(vis_img)plt.show()登录后复制
登录后复制登录后复制
相关阅读
MORE
+- ftp扫描工具免费版 ftp扫描工具付费版区别 07-24 ftp扫描工具命令行 ftp扫描工具图形界面 07-24
- ftp扫描工具集成 ftp扫描工具api接口 07-24 PP-YOLO:RoboMaster 战车装甲板检测(2.0 版本) 07-24
- AI语言转视频如何批量生成内容?适合做账号矩阵的技巧 07-24 多模态AI模型如何并行处理 多模态AI多线程优化方案 07-24
- 如何通过豆包AI进行代码生成 豆包AI编程辅助场景分享 07-24 如何用豆包AI生成Python数学计算代码 07-24
- deepseek学习神器推荐 deepseek怎么辅助写作业 07-24 人体姿态估计:基于飞桨复现Hourglass 07-24
- 论文复现:WS-DAN细粒度分类问题经典之作 07-24 如何通过豆包AI进行压力测试?系统性能评估指南 07-24
- Office文档修复神器 损坏文件抢救终身免费 07-23 【新手入门】0 基础掌握大模型训练(一):监督微调SFT算法全解析:从原理到实战 07-23
- PaddleRS:geojson-建筑提取 07-23 Gemini如何接入智能家居 Gemini智能设备控制方案 07-23
- 豆包AI编程操作说明 豆包AI自动编程技巧 07-23 AdvSemiSeg: 利用生成对抗实现半监督语义分割 07-23