【全民动起来】反向卷腹AI计数器
本文介绍基于PaddleHub的反向卷腹AI计数器。因健身时手动计数易出错,利用human_pose_estimation_resnet50_mpii模型实现计数。通过检测人体关键点,以膝盖x轴坐标变化为依据,判断反向卷腹完成情况。还给出环境准备、检测示例及计数代码,测试显示能准确计数,生成带检测效果的视频。

一、 【基于PaddleHub的反向卷腹AI计数器】
练腹只做仰卧起坐?做太多可能伤你的背!试试反向卷腹吧!更安全
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
1.背景介绍
自从刘耕宏大哥的直播健身流行,引起了全民健身的热潮~
一边运动的时候一边还要数着自己做到第几个才能达标,但是偶尔会数错
为了针对做的时候不要再操心计数的问题,利用PaddleHub的做了个反向卷腹AI计数器。
AI帮你反向卷腹计数
2.实现思路
1.用户打开手机,根据提示调整身体与手机距离,直到人体完全位于识别框内,即可开始运动。2.通过PaddleHub的human_pose_estimation_resnet50_mpii模型,进行人体关键点检测。3.根据检测的数据计数(此处选择左(右)膝盖关键点进行判断,一次完整的左右来往为一次有效的计数)二、环境准备
1.PaddleHub安装
In [1]!pip install -U pip --user >log.log!pip install -U paddlehub >log.log登录后复制 In [2]
!pip list |grep paddle登录后复制
2.human_pose_estimation_resnet50_mpii模型安装
模型地址: https://www.paddlepaddle.org.cn/hubdetail?name=human_pose_estimation_resnet50_mpii&en_category=KeyPointDetection模型概述:人体骨骼关键点检测(Pose Estimation) 是计算机视觉的基础性算法之一,在诸多计算机视觉任务起到了基础性的作用,如行为识别、人物跟踪、步态识别等相关领域。具体应用主要集中在智能视频监控,病人监护系统,人机交互,虚拟现实,人体动画,智能家居,智能安防,运动员辅助训练等等。 该模型的论文《Simple Baselines for Human Pose Estimation and Tracking》由 MSRA 发表于 ECCV18,使用 MPII 数据集训练完成。In [3]!hub install human_pose_estimation_resnet50_mpii >log.log登录后复制 In [4]
!hub list|grep human登录后复制
三、人体关键点检测示例
1.关键点检测演示
针对下面这三张图片做关键点检测,具体如下:
import cv2import paddlehub as hubpose_estimation = hub.Module(name="human_pose_estimation_resnet50_mpii")#human_pose_estimation_resnet50_mpiiimage1=cv2.imread('work/ready.webp') # 准备状态image2=cv2.imread('work/doing.webp') # 中间状态image3=cv2.imread('work/finish.webp') #结束状态results = pose_estimation.keypoint_detection(images=[image1,image2,image3], visualization=True)登录后复制 查看output_pose 下输出的图片:
3.如何判断反向卷腹的有效性
判断一次反向卷腹的依据是什么呢?
尽管上面的三张图有些点标定的不是很准确,但是我们可以比较明确的看到值得关注的点,例如膝盖的标定点。用膝盖点的移动可以作为评判标准。
In [29]# 打印三张左右膝盖的关键点 print(results[0]['data']['right_knee'])print(results[1]['data']['right_knee'])print(results[2]['data']['right_knee'])print(results[0]['data']['left_knee'])print(results[1]['data']['left_knee'])print(results[2]['data']['left_knee'])#从结果来看,我们用左膝盖或者右膝盖的点都可登录后复制
[783, 187][498, 250][784, 187][820, 242][498, 245][809, 183]登录后复制
四、智能计数
In [31]import cv2import paddlehub as hubimport mathfrom matplotlib import pyplot as pltimport numpy as npimport osos.environ['CUDA_VISIBLE_DEVICES'] = '0'%matplotlib inlinedef countYwqz(): pose_estimation = hub.Module(name="human_pose_estimation_resnet50_mpii") flag = False count = 0 num = 0 all_num = [] flip_list = [] fps = 60 # 可选择web视频流或者文件 file_name = 'work/fan_juanfu.mp4' cap = cv2.VideoCapture(file_name) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) fourcc = cv2.VideoWriter_fourcc(*'mp4v') # out后期可以合成视频返回 out = cv2.VideoWriter( 'output.mp4', fourcc, fps, (width,height)) while cap.isOpened(): success, image = cap.read() # print(image) if not success: break image_height, image_width, _ = image.shape # print(image_height, image_width) image.flags.writeable = False results = pose_estimation.keypoint_detection(images=[image], visualization=True, use_gpu=True) flip = results[0]['data']['right_knee'][0] # 获取膝盖的x轴坐标值 flip_list.append(flip) all_num.append(num) num +=1 # 写入视频 img_root="output_pose/" # 排序,不然是乱序的合成出来 im_names=os.listdir(img_root) im_names.sort(key=lambda x: int(x.replace("ndarray_time=","").split('.')[0])) for im_name in range(len(im_names)): img = img_root+str(im_names[im_name]) print(img) frame=cv2.imread(img) out.write(frame) out.release() return all_num,flip_listdef get_count(x,y): count = 0 flag = False count_list = [0] # 记录极值的x值 for i in range(len(y)-1): if y[i] <= y[i + 1] and flag == False: continue elif y[i] >= y[i + 1] and flag == True: continue else: # 防止附近的轻微抖动也被计入数据 if abs(count_list[-1] - y[i]) >200 or abs(count_list[-1] - y[i-1]) >200 or abs(count_list[-1] - y[i-2]) >200 or abs(count_list[-1] - y[i-3]) >200 or abs(count_list[-1] - y[i+1]) >200 or abs(count_list[-1] - y[i+2]) >200 or abs(count_list[-1] - y[i+3]) >200: count = count + 1 count_list.append(y[i]) print(x[i]) flag = not flag return math.floor(count/2) if __name__ == "__main__": x,y = countYwqz() plt.figure(figsize=(8, 8)) count = get_count(x,y) plt.title(f"point numbers: {count}") plt.plot(x, y) plt.show()登录后复制 1. 计数效果如下
(从图可以看出总共有6个顶峰,对应计数有6个,和原视频总共做了6个反向卷腹对应上了)
2. 视频生成如下
在根目录下可以看到:
output.mp4
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话
新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?
AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体
Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26
面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大
美国犹他州启动新试点项目:AI为患者开具精神类药物处方
IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

