来源 :开普云2024-02-29
2月26日,中国网络空间安全协会人工智能安全治理专业委员会在京组织座谈会。中央网信办相关职能部门负责人,开普云、华为、腾讯、360、阿里云等30余家专委会成员单位代表出席。会上,开普云总裁严妍就人工智能发展与安全治理的重要议题进行交流发言。

严妍表示,生成式人工智能当前面临三大风险挑战。首先,敏感内容的生产成本更低、投放更精准。大模型可以在大数据精准画像的基础上生成含有指定意识形态倾向的信息,潜移默化改变受众认知。
其次,“大模型一本正经地胡说八道”,成为强大的造谣机器。大模型的深度伪造能力让炮制虚假信息变得越来越容易。
最后,改变交流方式,动摇传统社会结构。生成式人工智能让机器与人的互动变得更加贴心和有温度,改变了传统的“人与人”之间的交往模式,削弱了人与人的情感与陪伴作用,可能对人类社会传统伦理带来难以预测的挑战。
针对这些风险挑战,严妍提出要在发展中治理,利用发展解决出现的问题,并提出多项具体发展建议。
一是AI安全治理的重点是对其输出内容的治理。网络社交平台上的信息很多,之前绝大多数是人生产的,现在多了不少机器生产的,本质上还是人操作机器生产的。就治理而言,不论生产主体是谁,内容把关的标准不会有太大不同,应当一视同仁。在这方面可以考虑“以彼之矛攻彼之盾”,更多地发挥自主可控的优秀大模型的赋能作用。开普云针对大模型普遍存在的拒答、误答现象,研发了“鸠摩智”大模型意识形态检测风控平台,围绕核心价值观、政治立场、基本道德规范、事实准确、语言逻辑等维度,对大模型产品进行集出卷、阅卷、评价于一体的全自动评估。
二是关于大模型语料库建设,严妍认为建设我国自己的大模型语料库十分重要。首先要力求客观准确,只有权威的语料才能训练出权威的输出。其次建议分领域分步骤建设,聚焦需求最大、问题最紧迫的领域,比如意识形态领域,媒体传播领域等。再次健全工作机制,充分发挥体制优势,做好顶层设计,由国家组织建设,避免低水平重复建设,同时调动专家积极性,畅通社会参与渠道。最后边建边用,在用中建,建设初期,可向社会企业开放特定的准确的语料,比如正规多模态出版物构成的语料等。
三是对专家委员会今年工作的建议。语料库的建设与管理是人工智能治理的关键一环,是确保大模型内容生产安全的基础和前提,应当建设好,也必须建设好。严妍建议多到一线调研,了解更多实际应用的案例,为后续快速推进打下良好基础。
在人工智能飞速发展的当下,此次座谈会汇集了业内中坚力量,应对挑战,为AI安全治理领域提供了新的思路和建议。
2024年,专委会将针对中文语料发布和平台建设、安全评测体系建设、多模态人工智能等重点方向开展工作。开普云将积极参与专委会的各项重点工作,尤其在数据集治理、共享、研究和生成式人工智能内容安全评测相关领域贡献力量。开普云也期待今后有更多机会与业界领导专家深入交流,发展产业,繁荣生态,推动技术进步。