虚拟人治理与合规的未来趋势

新知榜官方账号

2023-10-18 02:18:24

引言

市场对虚拟人的想象日益增加,给ChatGPT穿一个“皮套”,应该就是个很好用的虚拟人了,分布式、定制化的AIGC,世界上每一个人都可以拥有一个虚拟分身。然而,我们还没有为一个充斥着虚拟人的世界做好伦理上的准备。

虚拟人的灵魂与治理

虚拟人的“灵魂”是很贵的。它需要技术的解决方案和内容方面的持续投入。在C端消费市场,“灵魂”或曰“人格”是虚拟人IP的核心竞争力。虚拟人成为怎样一个“人”,这是个运营问题,而非技术问题。虚拟人的人格是由运营商、用户、中之人赋予的,技术只是实现的手段。于是针对虚拟人的治理,主要还是管理虚拟人背后的真人。

可信虚拟人的治理问题

当AIGC技术被用于虚拟人生成之后,尤其当拥有ChatGPT那样的智能交互能力之后,虚拟人可以实现“超写实”的效果。让人真假难辨的虚拟人,可能会放大相关的风险,加重给当事人可能造成的危害。在这种情况下,除了现行的AIGC管理方式之外,负责任的企业可以同时利用一系列技术方案来加固虚拟人的可信力度。公司希望今年就这个问题推进行业内达成共识。

负责任AI的六个原则

负责任AI或可信AI的总要求,可以拆分成几条具体的原则。微软把负责任AI归纳为6个原则:公平性、安全与可靠、隐私与数据安全、包容性、透明性、可问责性。

欧盟《人工智能法》的尴尬局面

欧盟《人工智能法》提议禁止一些有悖人权的人工智能应用,比如某些人脸识别应用。但是像ChatGPT这种泛用途的生成式AI,很难用原有的立法思路去判定它的风险性。虽然立法和行政部门不宜在AI治理领域介入过多,但是法律的保守立场是一贯的。具体到虚拟人议题上,法律在未来可预见的时间里,应该不会把AI和虚拟人当人看待。虚拟人只是作品,一如你早上煎的鸡蛋也是作品。作品原本就不应和“坐牢”扯上关系。作品出了问题,只能是你的责任。

结论

虚拟人治理与合规的未来趋势,需要企业和市场更自发地完成。负责任AI是一个企业治理话题,它需要企业在设计和研发AI产品时围绕负责任AI的六个原则进行脑暴,并且在运营中持续监测其表现。可信虚拟人的治理问题需要除了现行的AIGC管理方式之外,负责任的企业可以同时利用一系列技术方案来加固虚拟人的可信力度。虽然现阶段的AI伦理方面的治理还是需要由企业来主导,但法律的保守立场是一贯的,虚拟人只是作品,作品出了问题,只能是背后的技术供应商、内容供应商、运营商等实体来承担。

本页网址:https://www.xinzhibang.net/article_detail-17080.html

寻求报道,请 点击这里 微信扫码咨询

关键词

负责任AI 可信虚拟人 AIGC

分享至微信: 微信扫码阅读

相关工具

相关文章