提供商还必须提供足够的保障措施

Discover tools, trends, and innovations in eu data.
Post Reply
roseline371274
Posts: 1281
Joined: Mon Dec 23, 2024 8:20 am

提供商还必须提供足够的保障措施

Post by roseline371274 »

确保生成系统不会产生非法或违反欧洲标准的内容,并且必须发布用于培训目的的受版权保护的数据摘要。这些额外的要求是合理的,因为基础模型需要大量数据,所以其开发人员通常依赖于互联网上可用的训练数据,而这些数据通常质量较差。事实上,这些模型生成的内容经常是不正确或有偏见的(想想 Chat GPT 等模型生成的假新闻问题)。
然而,学者们提出了担忧:遵守所需的义务,包括建立针对高风险用途的全面风险管理体系,似乎几乎不可能实现。
事实上,提供商需要识别和分析所有已知和可预见的、最有可能发生的健康、安全和基本权利风险,并且基于这种分析,他们必须确定每种风险的缓解策略。
因此,由于遵守新《人工智能法案》规定的挑战,可以预期只有谷歌、Meta 和微软/Open AI 等大型且财力雄厚的参与者才有能力承担开发大致符合《人工智能法案》的 LLM 的相关成本。这将导致能够满足监管要求的公司数量有限,从而可 保加利亚号码数据 能导致该领域的竞争和创新减少。


议会版本的另一个重大变化是扩大了禁止人工智能系统的名单。这是欧洲首个此类禁令,也是世界范围内首次对此类系统进行重大禁令,其中包括:“在公共场所使用实时远程生物特征识别系统;发布远程生物特征识别系统,但执法部门为了追究严重犯罪行为的,且必须获得司法授权的情况除外;使用敏感特征(例如性别、种族、民族、公民身份、宗教、政治倾向)的生物特征分类系统;预测警务系统(基于分析、位置或过去的犯罪行为);执法、边境管理、工作场所和教育机构中的情绪识别系统;从社交媒体或闭路电视录像中不加区别地抓取生物特征数据来创建面部识别数据库(侵犯人权和隐私权)。”。


该禁令反映出人们日益认识到必须以合乎道德且尊重基本权利的方式开发和使用人工智能系统。它为更加透明、负责和公平的执法方式铺平了道路,促进了维护公平正义的制度。然而,具体来说,该禁令可能会带来严重后果。例如,一旦预测警务禁令生效,执法当局和机构将有义务停止使用欧盟已经在使用的所有预测警务工具。因此,当局可能会强制要求从操作系统和数据库中删除此类工具。这一行动可能首先涉及拆除或重新配置支持预测性警务的现有基础设施,然后定期报告禁令的实施情况和进展情况。
Post Reply