欧盟揭晓新的人工智能法规
新的人工智能法规将确保欧洲人民可以信任人工智能产品。相称和灵活的规则旨在解决人工智能系统带来的具体风险,并在全球范围内设定最高标准。协调计划(The Coordinated Plan)概述了欧盟成员国必要的政策改变和投资,以加强欧洲在发展以人为本、永续、安全、包容和值得信赖的人工智能方面的领先地位。 新的法规基于人工智能发展趋势,依据风险高低分类,将适用于所有欧盟成员国。 不可接受的风险(Unacceptable risk):被认为对人们的安全、生计和权利有明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用(例如,使用语音辅助的玩具,鼓励未成年人的危险行为)和允许政府进行「社会评分(social scoring)」的系统。 高风险(High-risk):被认定为高风险的人工智能系统涉及到以下用途:
高风险的人工智能系统上市前,将受到严格的管控约束:
特别是:
有限的风险(Limited risk):即具有透明公开义务的人工智能系统。在使用人工智能系统(如聊天机器人)时,使用者应该能意识到正在与机器互动,进而做出明智的决定。 最小的风险(Minimal risk):法规允许自由使用人工智能的电子游戏或垃圾邮件过滤器等应用,绝大多数的人工智能系统都属于这个类别,对此不作干预,因为这些系统对公民的权利或安全只构成最小或没有风险。
在监管方面,欧盟委员会建议各国市场监督主管部门配合新的法规,并将设立欧洲人工智能委员会(European Artificial Intelligence Board)促进其实施,推动人工智能标准的发展。此外,还提议为非高风险的人工智能系统制定自发性的行为准则,建立监管沙盒(regulatory sandbox)以促进创新。 (编辑:宜春站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |