博客

什么是欧盟AI法案?5分钟总结要点

发布日期July 18, 2024

Blog post cover

欧州連合(EU)は、人工知能(AI)の使用に関する包括的な指令である「EU AI法」を導入しました。

この法律は、リスクが比較的少ないAIシステムや一般目的AI(GPAI)モデルに対して欧州人の信頼を促進します。この記事は、法律の要点をまとめ、専門家や一般の人々が理解しやすくしています。

‍免責事項: Chatsimpleは、EU AI法の義務を補完しますが、法的助言を提供するものではありません。法律に関する助言や提案が必要な場合は、弁護士に相談するか、実際の欧州連合人工知能法を参照してください。

EU AI法とは?

欧州連合人工知能法は、AIの開発および/または使用を規制します。この法律は、AIがもたらすリスクに基づいて、人工知能に異なるルールと規制を適用します。

この法律は、AIに関与する提供者、展開者、輸入業者、販売業者、製品メーカーに適用され、AIシステムを開発、使用、輸入、販売、または製造するすべての関係者を含みます。法はEUの範囲に限定されません。EU以外の地域で生産された成果物であっても、その成果物がEU地域で使用される予定であれば、この法律が適用されます。

これは、リスクと透明性を管理するために厳格なガバナンスを実施するAIに対する包括的な規制枠組みです。不遵守の種類によって、法律に従わなかった場合の罰金は750万ユーロ(または全世界の年間売上高の1.5%)から3500万ユーロ(または売上高の7%)までの範囲です。

EU人工知能法の必要性を探る

AIが行う予測を逆に分析するのは難しいことがあります。特定の決定がなぜ下されたのかを正確に突き止めるのは難しいかもしれません。ほとんどのAIシステムはリスクが限られていますが、重要な決定を下す際に信頼できないリスクの高いシステムも存在するかもしれません。例えば、採用決定において、特定の候補者が選ばれた理由を理解するのは難しいかもしれません。誰かが不公平に不利に扱われたかどうかは分からないでしょう。

AI法は、リスクが最小限または制限されたAIシステムに対する信頼を欧州人に提供し、機械と人間の操作に対する望ましい貢献を評価する手助けをします。この法律は、AIの実践とシステムで何が受け入れられ、何が禁止されているかを明確にします。

AI法は、ビジネスや機関に以下の支援を行います:

  • 許容できないリスクを持つAIの実践を禁止すること
  • 高リスクのAIシステムを特定し、それに対する明確な要件を設定すること
  • 高リスクのAIシステムの提供者と展開者に対する義務を定義すること
  • AIシステムをサービスまたは市場に投入する前に適合性評価を要求すること
  • 国家および欧州レベルでのガバナンス構造を確立すること

このガバナンスにより、欧州人はAIシステムを信頼し、自信を持って使用できるようになります。欧州レベルでは、欧州人工知能委員会が規制が一貫して施行されるように委員会および加盟国を助言し、支援します。

委員会と加盟国を支援し、この規則の一貫した効果的な適用を促進します。

EU AI法の影響を受けるのは誰ですか?

EU AI法の義務は、以下の対象に適用されます:

  • EU内に設立または所在するプロバイダー、またはEU市場にAIシステムまたは一般目的AI(GPAI)モデルを提供またはサービスを提供する国第三者のプロバイダー
  • AIシステムの展開者でEUに設立の場所がある者。EU内に所在することができます。
  • AIシステムのプロバイダーまたは展開者が第三国に設立の場所を持つ(またはそこに所在する)場合、EUで使用されるAIシステムから出力を生成する場合。

AI法が要求するものは?

欧州連合人工知能法は、企業および機関に対して次のことを要求します:

  • 現在の状態を理解する
  • すでに使用または開発中のAIシステムがあるかどうか確認します。すぐに第三者ベンダーからAIシステムを調達できるかどうか確認します。そうであれば、これらのシステムをモデルリポジトリに追加します。

モデルリポジトリを持っていない場合、AIシステムへの露出を理解した後に作成を検討します。現在AIシステムを使用していなくても、AIの採用が増えていることを考えると、近い将来使用する可能性が高いです。現在および潜在的なAIシステムへの露出を考慮して、モデルリポジトリを準備するのが最善です。

AIシステムのリスクを分類する

EU AI法の下では、リスクカテゴリは4つあります:許容できないリスク、高リスク、限定的リスク、最小リスク。

出典: EY

許容できないリスク

許容できないリスクを持つAIシステムは禁止されています。これらのシステムは以下を使用することがあります:

  • 公共の場でのリモート生体認証(RBI)。これらのシステムはAIを使用して公共の場で人々の生体データを認識します。顔認識が最も一般的ですが、物理的、身体的、または行動的特徴に基づいた認識も含まれることがあります。
  • 自然人の脆弱性。これらのシステムは、年齢、障害、または社会的または経済的条件のために人やグループを利用します。EU AI法の下では禁止されています。
  • 潜在的影響技術。特定のグループの脆弱性を意識的認識の下で利用するシステムが禁止されています。これには、意思決定能力を損なうような行動を歪める欺瞞的技術が含まれます。
  • 社会的スコアリングシステム。各市民に対して、良い行動と悪い行動に基づいてスコアを付与するシステム。良い行動は望ましいもので、税金の支払いなどが含まれますが、悪い行動には犯罪が含まれます。

高リスク

EU AI法は高リスクを許可しますが、それには複数の要件を満たす必要があり、適合性評価を受ける必要があります。製品を市場に投入する前に評価を完了しなければなりません。

そのようなシステムをEUのデータベースに登録する必要があります。これらのシステムには以下が含まれる場合があります:

  • 市民の生命と健康を危険にさらすインフラストラクチャ。
  • 教育や職業訓練が人々の教育や専門的なコースへのアクセスを決定します。例えば、試験など。
  • AIを使用する安全性コンポーネントを持つ製品。
  • 雇用に関するシステムや誰かの雇用アクセスを制御するシステム。
  • クレジットスコアリングシステムなどの公共および私的サービス、例えば、融資を得る可能性を管理します。
  • 個人の移動や亡命申請を管理するシステム。
  • 正義と民主的プロセスに関わる管理システム。

これらのシステムには、リスク評価と軽減などの厳格な義務が課せられます。高品質なデータセットからのデータ供給や、ログ活動の記録が必要です。高リスクのAIシステムで作業している場合は、すべてを文書化し、高いセキュリティと正確性を確保してください。

限定的または最小リスク

限定的リスクシステムについては、ユーザーに対して透明性を保つ必要があります。ユーザーは、AIと対話していることを知っておくべきです。一般的な例としては、高リスクでないチャットボットが含まれます。ユーザーにはAIと対話していることを知らせなければなりません。

最小リスクについては、EU AI法により自由に使用できます。これには、スパムフィルターやAI対応のゲームなどが含まれます。

AI法に従う

システムが高リスクに該当する場合、AIの実践がAI法に適合し、必要な規制に従っていることを確認してください。

EU AI法はいつ施行されますか?

欧州議会とEU加盟国は、それぞれ2024年4月22日と2024年5月21日に法案を承認しました。法律がEU公式公報に掲載された後、20日後に施行されます。

6ヶ月後には、許容できないリスクを持つシステムに対する禁止が施行されます。

法律が施行されてから過去12ヶ月間市場に出ていた一般目的AI(GPAI)システムは、36ヶ月以内に遵守する必要があります。

12ヶ月後には、高リスクのAIシステムに関する規則が施行されます。

36ヶ月後には、製品または製品の安全コンポーネントとしてのAIシステムがEU AI法の規制下に入ります。

EU AI法の施行

異なる当局がAI法を施行します。各EU加盟国は、少なくとも1つの通知当局と市場監視当局を設立または指定し、これらの当局が職務を遂行するために適切なリソースを確保します。

通知当局は、必要な評価および指定手続きを公平に設定し実施します。一方、市場監視当局は、国家レベルでAI法を施行します。この機関は高リスクのAIシステムに対して異なる場合があります。AIシステムが不適合な場合、市場監視当局は年次報告書を委員会および関連する国家当局に提出します。

EU AI法の義務に違反する場合や、高リスクのAIシステムが法に従っているにもかかわらず人々の健康や安全にリスクをもたらす場合、市場監視当局は次のことを行うことができます:

  • 関連するオペレーターに対して是正措置を要求し、AIシステムが同様のリスクを提示しないようにする。
  • オペレーターが失敗した場合、そのAIシステムを市場から撤回することができます。

EUレベルでは、委員会内のAIオフィスが規則を施行します。この委員会は、AI法を効果的に施行するために、加盟国からの助言と支援を受けています。委員会およびAI委員会は、諮問機関から技術的な専門知識を得ています。EU加盟国の国民裁判所は、契約外の過失に基づく民事訴訟が提出された場合、AI責任指令を実施します。

国民裁判所は、損害を引き起こす疑いのある高リスクのAIシステムについても証拠を要求することができます。

法律を遵守するAIの使用

Chatsimpleは、あなたのウェブサイト用のAI販売エージェントで、EU AI法の義務を遵守しています。ウェブサイトにAIの販売機能を追加したい場合は、新しいAI法に準拠しているかどうかを心配せずにChatsimpleをお試しください。

ChatsimpleのAI販売エージェントを使用すると、次のことができます:

  • AIを活用してすべての訪問者に即座に回答を提供する。
  • バウンス率を減らし、信頼と信用を築く。
  • リード生成を増加させ、質の高いリードとの会議をスムーズに設定する。

Chatsimple AIはEUのAI法の下で安全で効果的です。

ビジネスで最大限に活用する方法を理解するために、30分の時間を確保してください。

4o minitranslate into zhChatGPT

欧盟(EU)推出了一项关于人工智能(AI)使用的全面指令,称为《欧盟AI法》。

该法律鼓励欧洲人信任相对风险较小的AI系统和通用AI(GPAI)模型。本文总结了该法律的要点,并使专业人士和普通个人更易于理解。

‍免责声明:Chatsimple 补充了《欧盟AI法》的义务,但不提供任何法律建议。如需关于该法律的建议或意见,请咨询律师或参考实际的欧盟人工智能法。

什么是《欧盟AI法》?

《欧盟人工智能法》将管理AI的开发和/或使用。根据AI所带来的风险,它对人工智能应用不同的规则和规定。

该法律适用于涉及AI的提供者、实施者、进口商、分销商和产品制造商,包括所有开发、使用、进口、分销或制造AI系统的相关方。该法律不限于欧盟范围。如果任何地区生产的成果物打算在欧盟地区使用,那么该法律将适用。

这是一个全面的AI监管框架,实施严格的治理,以管理风险和提高透明度。根据不遵守的类型,不遵守该法律的处罚可以在750万欧元(或全球年度营业额的1.5%)到3500万欧元(或营业额的7%)之间。

探索《欧盟人工智能法》的必要性

逆向工程AI的预测很复杂。你可能无法确切指出某个决定为何作出。尽管大多数AI系统的风险有限或不存在,但可能会有一些风险较大的系统,你在做出关键决策时可能无法信任。例如,在招聘决策中,理解为何选择某个候选人可能会很困难。你无法确定是否有人受到不公平对待。

《AI法》帮助欧洲人信任风险最小或有限的AI系统,并重视它们对人类和机器操作的有益贡献。该法律明确了AI实践和系统中的可接受行为和禁止行为。

《AI法》帮助企业和机构:

  • 禁止存在不可接受风险的AI实践
  • 确定高风险AI系统,并为其设定明确的要求
  • 定义高风险AI系统提供者和实施者的义务
  • 在将AI系统投入使用或市场之前,要求进行符合性评估
  • 在国家和欧盟层面建立治理结构

这种治理帮助欧洲人信任AI系统,并自信地使用它们。在欧盟层面,欧洲人工智能委员会将建议并协助委员会和成员国,确保法规的一致执行。

该委员会将建议和协助委员会及成员国,以促进该法规的一致和有效应用。

谁会受到《欧盟AI法》的影响?

《欧盟AI法》的义务将适用于:

  • 任何在欧盟内成立或位于第三国的提供者,如果他们在欧盟市场上提供或投入使用AI系统或通用AI(GPAI)模型,则是提供者。
  • 任何在欧盟有设立地点的AI系统实施者。他们可以位于欧盟内。
  • 如果AI系统的提供者或实施者在第三国有设立地点(或位于那里),并且其AI系统产生的输出将在欧盟使用。

《AI法》要求什么?

《欧盟人工智能法》要求企业和机构:

  • 了解当前状态
  • 查看是否已有正在使用或开发的AI系统。检查是否很快会从第三方供应商那里采购AI系统。如果是,请将这些系统添加到你的模型库中。

如果你没有模型库,考虑在了解AI系统的暴露情况后创建一个。即使你目前不使用AI系统,考虑到AI采纳的上升趋势,你可能会在不久的将来使用它们。最好根据当前和潜在的AI系统暴露情况准备模型库。

对AI系统的风险进行分类

根据《欧盟AI法》,有四种风险类别:不可接受的风险、高风险、有限风险和最小风险。

来源:EY

不可接受的风险

存在不可接受风险的AI系统是被禁止的。这些系统可能使用:

  • 公共场所的远程生物识别(RBI)。这些系统使用AI在公共场所识别个人的生物特征。面部识别是最常见的,但也可能包括基于身体、物理或行为特征的识别。
  • 利用自然人的脆弱性。这些系统利用个人或群体的年龄、残疾或社会经济条件。根据《欧盟AI法》,这些系统是被禁止的。
  • 潜在影响技术。利用特定群体的脆弱性,在其意识识别以下的层面进行操作的系统是被禁止的。这包括通过损害决策能力的欺骗性技术来扭曲个人或群体的行为。
  • 社会评分系统。这样的系统根据每个公民的积极和消极行为给出评分。积极行为是期望的,例如纳税,而消极行为包括犯罪行为。

高风险

《欧盟AI法》允许高风险,但这些系统必须符合多个要求,并经过符合性评估。在将产品推向市场之前,必须完成评估。

你需要在欧盟数据库中注册这些系统。这些系统可能包括:

  • 可能危害公民生命和健康的基础设施。
  • 教育或职业培训决定人们的教育和职业课程访问。例如,考试。
  • 使用AI的安全组件的产品。
  • 与雇佣相关的系统或控制某人雇佣访问的系统。
  • 关键的公共和私营服务,如管理获得贷款机会的信用评分系统。
  • 管理个人迁移或提供庇护的系统。
  • 涉及司法和民主过程的行政系统。

这些系统需要遵守严格的义务,如风险评估和缓解。它们需要从高质量的数据集中获取数据,并保持日志记录。当处理高风险AI系统时,请确保所有文档齐全,并确保高水平的安全性和准确性。

有限或最小风险

对于有限风险系统,需要与用户保持透明。他们应该知道自己在与AI互动。常见的例子包括不是高风险的聊天机器人。它们必须告知用户他们正在使用AI。

对于最小风险,《欧盟AI法》允许其自由使用。这些系统可能包括垃圾邮件过滤器或AI驱动的游戏。

遵守《AI法》

如果系统属于高风险类别,确保你的AI实践符合《AI法》,并遵守必要的法规。

《欧盟AI法》何时生效?

欧盟议会和欧盟成员国分别在2024年4月22日和2024年5月21日批准了该法案。法律在《欧盟官方公报》上发布后,将在20天后生效。

6个月后,关于不可接受风险系统的禁止将生效。

自该法案生效起过去12个月内在市场上的通用AI(GPAI)系统将有36个月的时间来遵守。

12个月后,关于高风险AI系统的规定将生效。

36个月后,作为产品或产品安全组件的AI系统将受《欧盟AI法》的监管。

《欧盟AI法》的实施

不同的当局执行《AI法》。每个欧盟成员国设立或指定至少一个通知当局和一个市场监督当局,确保它们拥有执行职责的适当资源。

通知当局公正地设置并进行所需的评估和指定程序。另一方面,市场监督当局在国家层面执行该法律。对于高风险AI系统,这一机构可能有所不同。当AI系统不符合规定时,市场监督当局将每年向委员会和相关国家当局报告。

如果存在《欧盟AI法》的义务不合规,或高风险AI系统尽管符合法律但仍对人们的健康和安全构成风险,市场监督当局可以:

  • 要求相关操作员采取纠正措施,确保AI系统不再带来类似风险。
  • 如果操作员未能执行,相关AI系统可能会被撤回市场。

在欧盟层面,委员会内的AI办公室负责执行法规。该委员会在有效执行《AI法》方面得到成员国的建议和协助。委员会和AI委员会从顾问利益相关者的论坛获得技术专长。欧盟成员国的国家法院将在面对非合同过失的民事诉讼时实施AI责任指令。

国家法院也可以要求对怀疑造成损害的高风险AI系统提供证据。

使用符合《AI法》的AI

Chatsimple 是一个适用于您网站的AI销售代理,遵守《欧盟AI法》的义务。如果您想将AI销售功能添加到您的网站,试用 Chatsimple,无需担心新 AI 法在欧盟地区的合规性。

使用 Chatsimple 的AI销售代理,您可以:

  • 利用AI与每个访客互动,帮助他们在几秒钟内找到答案。
  • 减少跳出率,同时建立信任和信誉。
  • 提高潜在客户的生成,并顺利安排与合格潜在客户的会议。

Chatsimple 的AI 在欧盟《AI法》下是安全和有效的。

安排30分钟,了解如何在您的业务中最大限度地发挥其作用。

AI Chatbot

您业务的AI聊天机器人

将访客转化为
客户甚至
您入睡时