Google Korea(グーグルコリア)のデジタル責任委員会が、今年上半期に「責任感あるAIフォーラム」を2度開催し、12月に制定された「人工知能(AI)の発展と信頼基盤の造成などに関する基本法(AI基本法)」の主な争点を議論した。

「責任感あるAIフォーラム」は、Google Koreaが責任感のあるデジタルエコシステムの造成のため、昨年初めに発足したデジタル責任委員会の傘下で開催しているフォーラムの一つだ。今年は法曹界、政策、IT・技術、スタートアップなど各界の各分野の専門家14人がメンバーとして参加し、年4回、AIの発展をめぐる韓国内外の法制化動向及び社会倫理的問題などを検証している。

3月に開かれた1回目のフォーラムはAI基本法の核心争点の一つである「高影響AIの定義と展望」をテーマに開催された。AI基本法は、人間の生命や安全、基本権などに重大な影響を及ぼし得るAIシステムを、11の分野にわたって「高影響AI」と規定しているが、具体的なカテゴリが曖昧で、法律の適用において解釈の違いが発生する可能性があるとの指摘が出ている。

高麗大学技術経営専門大学院のイ・ソンヨプ教授が発題者となって「高影響AI」の定義と基準、規制現況などを検討し、AI産業の革新を促進すると同時に安全性も確保できるアプローチ案を議論した。参加した専門家は、AI産業エコシステムの視点と現状が十分に反映されるよう法案を改正する一方、曖昧だったり重複していたりする条項は再整備し、後続の責務及び手続きを補完する必要があるとの意見で一致した。

5月21日に行われた2回目のフォーラムは「AIの安全性・透明性の確保とAI影響評価」をテーマにした。AI基本法は、AI技術が引き起こす可能性のあるリスクを事前に予防し、国民の基本権を保護するという趣旨の下、AIの安全性及び透明性確保の措置とAI影響評価を義務化しているが、過剰な規制の可能性と評価基準の曖昧さに無理があると指摘されている。

建国(コングク)大学法学専門大学院のイ・サンヨン教授は「AI規制の2つのパラダイム:コンテキストベースの規制と能力ベースの規制」をテーマに発表した。AIのリスクを「コンテキストリスク」と「能力リスク」に区分し、AI産業の変化に対応するため、柔軟で自律的な規制と国家的戦略が必要だと強調した。

嘉泉(カチョン)大学法学部のクォン・ウンジョン教授も「AI影響評価:意義、現況、課題」をテーマとした発表で、多様化するリスクタイプを考慮したAI規制の法制化と、政府、民間が協力するAI評価統合プラットフォームの構築の必要性について言及した。

専門家らはスタートアップをはじめとする多様な主体の責任負担とAI技術の発展スピード、国際規範との整合性などがAI影響評価の際に考慮されるべきだと強調した。特にAI活用の責任性と規制の正当性を確保するには、より柔軟で段階的なアプローチが必要だと口をそろえた。

KAIST(カイスト、韓国科学技術院)のチェ・ジェシクAI大学院教授兼XAI研究センター長は「大多数の企業と機関、個人がAIプログラムを使用する時代に、AIの安全かつ効率的な使用はこれまで以上に重要だ」とし、「既存のAIサービスが持つ限界と脆弱(せいじゃく)性にどれだけうまく対応するかが、今後、AIの責任性と安全性、さらにはAIリーダーシップが取れるか否かを決定する要因になるだろう」と話した。

「責任感あるAIフォーラム」は、下半期にはAIエージェント、AIロボット技術など、産業全般に革新的な変化をもたらすAI技術の影響と展望を検証していく予定だ。

原文:https://platum.kr/archives/261397