据日经新闻周五报道,日本政府希望今年晚些时候推出人工智能(AI)指导方针,消除可能与这种技术有关的偏见和其他滥用行为。
考虑到生成式人工智能的发展速度,日本方面对实施严格的控制策略犹豫不决。据悉,计划中的指导方针不具有法律约束力,也不会对违规行为进行处罚。
相比之下,欧盟计划为这项技术制定详细规则,严格界定从开发者到用户的法律责任。在美国,包括谷歌、OpenAI在内的七家顶级人工智能公司做出承诺,将负责任地开发人工智能技术,且白宫正在积极制定一项“管理人工智能使用”的行政命令。
(相关资料图)
而日本政府仅仅打算提供指导方针,供企业在开发和使用人工智能时参考。为了鼓励采用这些指导方针,日本政府将建立一种认证,证明这些企业正在遵循规范行事。政策制定者还设想要求企业在竞标政府合同时遵守这些指导方针。
总之,在对待人工智能的态度上,日本与欧美之间存在着较为明显的差别。据分析称,日本积极拥抱人工智能与少子老龄化问题有着紧密的关系,日本政府期待通过人工智能技术解决日本面对的劳动力不足、医疗保健挑战等问题。
此前,日本政府重申,不会对人工智能训练中使用的数据实施版权保护,可见日本的立场很明确。该政策允许人工智能使用任何数据,“无论是出于非营利或商业目的,是否是复制以外的行为,也无论是从非法网站或其他方式获得的内容。”
接下来,日本经济产业省等部门将与约100名专家合作,制定具体的指导方针,供各部门和企业参考。
据悉,指导方针草案分为两部分,第一部分包括所有企业通用的人工智能规则。这个章节包括指导操作人员意识到生成式人工智能程序的错误信息或偏见风险的基本原则。企业将开发遵守法律并考虑人权的服务,并敦促管理人员建立内部风险管理结构。
草案的第二部分概述了针对五类企业的具体规则。五类企业分别是:为生成式人工智能开发基础模型的企业、使用数据训练人工智能的企业、系统开发商、服务提供商和使用人工智能服务的企业。
负责人工智能开发和机器学习的运营商应保持一定程度的透明度,披露其人工智能项目所涉及的功能、目的和风险。
另外,企业还应该披露用于训练生成式人工智能程序的数据类型。生成式人工智能模型的训练需要大量的数据和计算资源,训练这些模型的初始数据要避免包括有危害或有偏见的内容是至关重要的。
了解初始数据的性质也将有助于人工智能服务提供商更好地决定是否采用某个程序。这些披露还将有助于调查与人工智能程序有关的任何问题。日本政府将探索使用外部审计,以确保企业保持透明度。