EUは「データから遮断」、米国は「理念論争」…韓国のAI基本法には欠けているもの

AI基本法施行令立法予告が22日に締切られた。2026年1月22日の施行まで1ヶ月。施行令は透明性・安全性義務を具体化したが、AI偏向に対する直接的な規律は依然として存在しない。AIが政治・ジェンダーイシューの対立を煽るという懸念が大きくなる中、政府は「最小限の規制」を強調し、スタートアップの98%は「準備できていない」と訴える。

AI偏向、どこまで来ているのか

韓国知能情報社会振興院(NIA)が最近発刊した「AI偏向による社会的葛藤と政策的対応」報告書では、AIの偏向がフィルターバブルとエコチェーンバーを経て社会的葛藤へとつながっていると診断した。

報告書によると、2025年6月に発表された研究では、ChatGPTは、Pew Research Center(フューリーサーチセンター)の政治的調査において、アメリカ人の平均より73%進歩的な傾向を示した。19のテーマのうち13(68%)で進歩的な傾向を現したのだ。これはAIが特定の見方を拡散させる「アンプ」の役割を果たすことができるということを意味している。

コーネル大学研究チームの実験では、AIチャットボットとの短い対話の方が、これまでの政治広告より、有権者の候補・政策への好感度を大きく変えた。英国の実験では、野党支持者の態度の変化が最大25%まで観察された。

韓国も例外ではない。韓国メディア振興財団の調査によると、国民の72%が「ニュースに接するのを避ける」を経験しており、その理由の1位は「政治的偏向があるため」だった。YouTubeのアルゴリズム推薦が価値観の偏向を生み出すという懸念に同意した割合も46.7%に達した。

政治的偏向だけではない。中国Douyin(ドウイン、中国版TikTok)の研究では女性アカウントに推薦されるコンテンツの84%が家庭・ファッションに偏重している反面、男性アカウントでは72%がエンターテイメント・物質主義コンテンツとなっていた。AIが作ったおとぎ話を分析した研究では、女性主人公の場合、ルックスの描写が55.26%多くなった。アルゴリズムは性別への固定観念を強化する方向で働いているのだ。

海外ではどのように対応しているのか

主要国はAI偏向にそれぞれ異なる方法で対応している。

EU AI Act第10条は最も直接的である。高リスクAIシステムの訓練・検証・テストデータが「代表性」と「完全性」を備えるよう要求しており、偏向の可能性を事前に検討し、検知・防止・緩和することを義務化した。AI開発段階で偏向の根本原因を遮断するというアプローチである。

アメリカは別の方向に動いた。トランプ政権は2025年7月「WOKE AI防止」行政命令を発表し、政府が「理念的偏向がない」AIメーカーとのみ契約するようにした。DEI(多様性・公平性・包容性)のような社会的アジェンダがAI出力に影響を与えてはならないという内容だ。「AIの偏向」が技術的検証対象から政治的論争へと転換されたわけだ。

イギリスは5つの原則(安全性、透明性、公平性、責任性、異議申し立ておよび救済)を提示し、各規制機関が自律適用するようにした。公正性原則により、「AIシステムは不当な差別を発生させてはならない」と明示した。

分類EUアメリカイギリス
アプローチ事前規制自律+行政命令原則に基づく
偏向対応データ代表性の義務化理念的偏向の除去公平性原則の提示
特徴権利保護、予防的政治化・論争化柔軟性と自律性

韓国AI基本法はなぜ偏向を規制しないのか

韓国AI基本法もEUのように「高影響AI」を別途規律する。生命・身体・基本権に重大な影響を及ぼすAIシステムが対象となる。ところがEU AI Actが高リスクAIにデータ偏向防止を義務化したのとは異なり、韓国基本法と施行令には偏向を直接規律する条項はない。

施行令が具体化したのは透明性と安全性だ。生成型AIは表示方式を「人認識」と「機械読み出し(C2PAなど)」方式で二元化した。高影響AIは事業者が自らが該当するかどうかを科学技術情報通信部に確認申請することができ、政府は60日以内に返信しなければならない。大規模なAIモデル(10²⁶FLOPs以上、GPT-4クラス)はリスク管理体制の構築が義務付けられた。

しかし、透明性とは「AIが作った」という事実の公開であり、安全性はシステムリスクの管理を指す。AIが「どんな視点で」情報を切り取ったり、推薦するかはこれらとは別の問題だ。

ぺ・キョンフン副首相兼科学技術情報通信部長官は15日、年末記者懇談会で「防御的規制ではなく基準設定」という点を重ねて強調した。 「高影響AIに対する懸念の声もあるのは事実」としながらも、「AIによる大転換による経済成長を最大限支援しながらも、AIの誤用・乱用に対する最小限の規制に重きを置く」と明かした。

スタートアップは「基準が曖昧」と訴える

いざ法を適用される企業はどうだろうか。STARTUP ALLIANCE(スタートアップアライアンス)が101のAIスタートアップを対象にアンケートした結果、「対応計画を樹立して準備中」と答えた企業は2%に過ぎなかった。残りの98%は「認知しているが対応不十分」(48.5%)または「内容が分からず準備もできていない」(48.5%)だった。

最も負担となる項目は信頼性・安全性認証制(27.7%)、データセットの透明性要求(23.8%)、高リスクAI指定・検証義務(17.8%)の順となった。共通的に指摘されたのは「基準の不明確さ」だ。「告知」の範囲、「生成型AI」の定義、「高影響AI」への指定基準などの曖昧さが実務対応を難しくしている。

STARTUP ALLIANCEは、施行令の確定前に4つの再検討を提案した。高影響AIの具体的な基準づくり、生成型AI表示義務の媒体別・危険度別差分適用、演算能力基準の「AIモデル」適用、事実調査着手要件の明確化などだ。

偏向、誰が規制するのか

NIA報告書は、EU、米国、英国とも「技術的・規制的アプローチに集中しており、ユーザー体験と情報ギャップの問題は不十分だ」と指摘した。それとともに「技術・データ – プラットフォーム – ユーザー – ガバナンス」4つの層位を網羅する統合管理体系を提案した。

データ収集ガイドラインと偏向診断ツールの開発、プラットフォームの推奨アルゴリズムパラメータ公開、年齢別・集団別AIリテラシー教育拡大、独立偏向評価機構設立などである。

現行AI基本法と施行令はこのうち技術・データの一部だけを取り扱っている。プラットフォームアルゴリズムの透明性、ユーザーリテラシー、独立評価機構は制度権外となる。AI基本法が規制すべき領域なのか、別途法律が必要な領域なのかはまだ議論されていない。

政府は法施行後1年以上の啓導期間(国民や企業が対応できるよう、周知・指導に重点を置く期間)を持つ方針だ。しかし、AIサービスは一度リリースされると、アーキテクチャの修正に莫大な費用がかかる。 「規制より振興」という基調は「偏向には後で向き合おう」を意味してはいないのだろう。偏向を誰が、どの法で規制するのかが次なる課題として残った。

原文:https://platum.kr/archives/278014