智东西公开课Pro

其他

ChatGPT作者John Schulman:我们成功的秘密武器

来源|TalkRLOneFlow编译翻译|杨婷、徐佳渝、贾川除了OpenAI,外界可能很少有人知道ChatGPT模型成功的真正原因,实际上,OpenAI也会对ChatGPT拥有的巨大影响力感到不可思议。这种困惑和惊喜就像工程师们解bug时获得的意外成功:We
2023年3月9日
其他

虚拟数字人动捕技术系列直播课上线,三节课主讲动捕数据处理、数据捕捉与实时动捕!

随着AI内容生产能力的提升与元宇宙对虚拟人赛道的催化,虚拟数字人得到进一步发展与应用,出现了一大批在社交媒体上受到极大关注的虚拟人,例如虚拟偶像洛天依、柳夜熙,虚拟员工崔筱盼、Hóng等。作为“元宇宙原住民“,如何实现与虚拟数字人的实时交互呢?动作捕捉技术是关键一步。在影视与游戏制作中,动作捕捉技术已经大放异彩。不管是《阿凡达》、《指环王》等好莱坞大片,还是《使命召唤》、《和平精英》等多人手游,都是先利用动作捕捉设备采集演员的肢体动作,再将采集到的数据进行一系列处理,进而呈现出令人震撼的视觉效果。由于动作捕捉技术的成熟,现在动捕技术应用的领域也越来越广泛,不只是影视与游戏,目前的虚拟人直播、广告营销、虚拟互动,也都用到了动作捕捉技术。同时针对不同的使用场景,动捕技术也拥有多样化的选择。常见的动捕技术有光学动作捕捉技术、惯性动作捕捉技术以及视觉动作捕捉技术。这三种动捕技术各有各的特征,且都有较好的使用效果。光学动捕一般是在人体上进行一些标记,由摄像机来捕捉标记点的反射,通过反射的不同位置的相关成像信息,测算出标记点的空间运动信息,之后再将这些信息进行定位和输出来捕捉目标人体的动作。惯性动捕会直接将加速度计、陀螺仪、磁力计等惯性传感器穿在人身上,数据处理单元再利用惯性传感器采集到信息完成对人体姿态角度的测量,捕捉人体的动作。而视觉动捕不需要标记也不需要任何物体,利用摄像头即可完成对人体动作的捕捉。为了帮助大家学习和了解虚拟数字人的动作捕捉技术,智东西公开课策划推出「虚拟数字人动捕技术系列直播课」。现阶段先上线3讲,并邀请到诺亦腾动作捕捉服务总监付长青、瑞立视影视动画产品总监黄秀强、青瞳视觉联合创始人祖厚超三位主讲人参与,主讲虚拟数字人动捕数据后期处理技术、高还原度全身数据捕捉技术与实时动捕技术。12月5日晚6点,诺亦腾动作捕捉服务总监付长青将带来第1讲的直播讲解,主题为《虚拟数字人动捕后期处理技术解析》。付长青老师首先会介绍虚拟数字人的发展现状与驱动原理,之后重点对动作捕捉得到的数据进行处理。最后他会展示虚拟数字人的驱动案例。12月12日晚6点,瑞立视影视动画产品总监黄秀强将以《高还原度全身运动数据捕捉的技术难点与实践》为主题带来第2讲的直播讲解。黄秀强老师首先会整体介绍一下虚拟数字人动作捕捉技术,之后对主流动作捕捉技术的优缺点展开详细分析,最后重点介绍高还原度的全身运动数据捕捉实现难点与应用。第3讲将于12月19日晚7点进行,由青瞳视觉联合创始人祖厚超主讲。祖厚超老师将围绕《面向虚拟数字人的实时动捕技术》这一主题带来直播讲解。祖厚超老师首先介绍实时对于虚拟数字人的重要性,之后会重点介绍实时动作捕捉的实现难点与组成部分。最后他还会简述虚拟数字人动捕技术的未来发展趋势。「虚拟数字人动捕技术系列直播课」每一讲都将以视频直播形式在智东西公开课知识店铺进行。每一讲由40分钟主讲与20分钟问答组成。加入交流群对「虚拟数字人动捕技术系列直播课」感兴趣的朋友,可以扫描下方二维码添加小助手昕怡报名。已经添加过昕怡的老朋友,可以给昕怡私信,发送“动捕”即可报名。同时为了便于交流,针对「虚拟数字人动捕技术系列直播课」还将设置专属交流群,并邀请主讲人入群。想要加入交流群与主讲人认识的朋友,也可以添加昕怡进行申请。点个“在看”和大家一起聊聊👇👇👇
2022年11月28日
其他

一流科技LiBai项目负责人程鹏:开源大规模预训练模型库及开发实践|直播预告

大模型时代已经来临。11月起,智东西公开课视觉AI教研组全新策划推出「大模型系列直播课」,聚焦最具代表性的大规模预训练模型,讲解大模型的构建技巧和开发工具,挖掘大模型的应用案例。直播课现阶段将上线四讲。联汇科技首席科学家赵天成博士、一流科技LiBai项目负责人程鹏、潞晨科技创始人尤洋教授,以及北京面壁智能联合创始人&CTO曾国洋四位主讲人将进行主讲。目前第1讲已经完结,错过直播的朋友可以点击文章底部“阅读原文”进行回看!11月24日晚7点,一流科技LiBai项目负责人程鹏将以《开源大规模预训练模型库及开发实践》为主题,参与到「大模型系列直播课」第2讲的直播讲解中。LiBai(李白)模型库一个基于OneFlow的开源大规模模型工具箱,覆盖了
2022年11月20日