新知榜官方账号
2023-10-18 02:18:24
市场对虚拟人的想象日益增加,给ChatGPT穿一个“皮套”,应该就是个很好用的虚拟人了,分布式、定制化的AIGC,世界上每一个人都可以拥有一个虚拟分身。然而,我们还没有为一个充斥着虚拟人的世界做好伦理上的准备。
虚拟人的“灵魂”是很贵的。它需要技术的解决方案和内容方面的持续投入。在C端消费市场,“灵魂”或曰“人格”是虚拟人IP的核心竞争力。虚拟人成为怎样一个“人”,这是个运营问题,而非技术问题。虚拟人的人格是由运营商、用户、中之人赋予的,技术只是实现的手段。于是针对虚拟人的治理,主要还是管理虚拟人背后的真人。
当AIGC技术被用于虚拟人生成之后,尤其当拥有ChatGPT那样的智能交互能力之后,虚拟人可以实现“超写实”的效果。让人真假难辨的虚拟人,可能会放大相关的风险,加重给当事人可能造成的危害。在这种情况下,除了现行的AIGC管理方式之外,负责任的企业可以同时利用一系列技术方案来加固虚拟人的可信力度。公司希望今年就这个问题推进行业内达成共识。
负责任AI或可信AI的总要求,可以拆分成几条具体的原则。微软把负责任AI归纳为6个原则:公平性、安全与可靠、隐私与数据安全、包容性、透明性、可问责性。
欧盟《人工智能法》提议禁止一些有悖人权的人工智能应用,比如某些人脸识别应用。但是像ChatGPT这种泛用途的生成式AI,很难用原有的立法思路去判定它的风险性。虽然立法和行政部门不宜在AI治理领域介入过多,但是法律的保守立场是一贯的。具体到虚拟人议题上,法律在未来可预见的时间里,应该不会把AI和虚拟人当人看待。虚拟人只是作品,一如你早上煎的鸡蛋也是作品。作品原本就不应和“坐牢”扯上关系。作品出了问题,只能是你的责任。
虚拟人治理与合规的未来趋势,需要企业和市场更自发地完成。负责任AI是一个企业治理话题,它需要企业在设计和研发AI产品时围绕负责任AI的六个原则进行脑暴,并且在运营中持续监测其表现。可信虚拟人的治理问题需要除了现行的AIGC管理方式之外,负责任的企业可以同时利用一系列技术方案来加固虚拟人的可信力度。虽然现阶段的AI伦理方面的治理还是需要由企业来主导,但法律的保守立场是一贯的,虚拟人只是作品,作品出了问题,只能是背后的技术供应商、内容供应商、运营商等实体来承担。
微信扫码咨询
相关工具
相关文章
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49