欧州連合(EU)は、人工知能(AI)に関する法規制について、法案の起草や法律の制定に乗り出しています。その中で、欧州連合(EU)が、ジェネレーティブAI(生成AI)も対象に含めた、世界初の法規制を制定する可能性が出てきました。
具体的には、欧州議会の委員会が対話型AI・ChatGPT(チャットGPT)など生成AIに関する規制を盛り込んだ修正案を承認しました。この規制案では、何がAIによって生成されたコンテンツかを明確に示すことが義務付けられています。
また、EU加盟の27カ国からなる欧州委員会(EC)は、「世界初のAIに関する法規制」とうたわれる「AI法(AI Act)」の制定に向けて、交渉の終盤に入っています。AI法の最終版は、2023年内に合意に達するとみられており、もしそうなれば2025年末には発効する見込みです。
AIの規制が必要とされる主な理由は以下の通り
倫理違反とバイアス:AIは人間が作成したものであり、その結果、人間の持つバイアスを反映したシステムが構築される可能性があります。例えば、AIチャットボットが人種差別や性差別、倫理に反するような回答をする可能性があります。
プライバシー侵害:AIのモデルに用いるデータ収集の際にプライバシー違反を起こす可能性があります。また、学習した機密情報をAIが漏洩する事例もあります。
透明性と追跡可能性:AIの活用にはリスクが伴うため、処理の中身の透明性や追跡可能性、判断理由の説明可能性などを担保した適正な利用が求められます。
著作権侵害と偽情報:AIが持つ著作権侵害や偽情報などのリスクも規制の対象となっています。
これらの問題を防ぐために、AIに対して規制や法整備が求められるようになりました。
AIの規制に対する各国の対応
日本では、AI規制について慎重な姿勢を取っています。具体的には、以下のような取り組みが進められています。
AI戦略2022:内閣府が発表した「AI戦略2022」では、AI時代に対応した人材育成や実世界産業におけるAI応用の先駆者を目指すなど、AIの利活用に向けた具体的な目標が示されました。
ガバナンス・ガイドライン:経済産業省が取りまとめる「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」では、人間中心のAI社会を目指すための実務的な指針が提供されています。
AIガバナンスの推進:マイクロソフトは、「Governing AI: A Blueprint for Japan (AI のガバナンス: 日本に関する青写真)」というレポートを発表しました。このレポートでは、日本がAIに関する政策、法律、規制を検討する5つのポイントについて述べています。
アメリカでは、2016年以降、AIに関する政策の整備が進められています。具体的には、AIに関するさまざまなルールやマニュアルが公表されており、AIの開発や利用に関する原則をまとめた「AI権利章典のための草案」を公表しています。
中国も動きを加速しており、国レベルだけでなく地方自治体レベルのAI規制案も公表されています。中国は人権保護よりも体制維持を優先しています。
これらの動きは、各国がAI技術の進化とともに生じる様々な課題への対応を目指しています。
AIの進化によって生じる可能性のある弊害は以下の通り
雇用の減少:AIが人間から一部のタスクを奪うと、残されたタスクを巡って人間同士の競争が激化します。結果として、労働者の賃金は低下し、仕事を失ってしまう人が出てくることも予想されます。
情報漏洩のリスク:AIを活用する場合、ネットワークを利用して顧客情報などの機密情報を取り扱うことになります。これにより、プライバシー侵害や情報漏洩のリスクが生じます。
リスクマネジメントが困難:AIの判断や行動に対するリスク管理が困難になる可能性があります。
責任の所在が不明確:AIがミスを犯した場合、その責任を誰が負うべきかが不明確になる可能性があります。
思考プロセスがブラックボックス化:AIが人類の能力を超えてしまうと、今度は人工知能の判断が本当に正しいのか分からなくなってしまいます。
プライバシー侵害:AIは大量のデータを必要とします。しかし、そのデータ収集によりプライバシー侵害が生じる可能性があります。
人権問題:AIが進化し、人間と同じような感情を持つようになった場合、それらのAIに対して人権を与えるべきかどうかという問題も生じます。
これらは一部の可能性であり、具体的な影響は今後の技術進歩や社会的な対応によります。
Comments