人工知能をめぐる議論は予測可能な行き詰まりに達しています。ユーザーはAIを信頼していないと言い、企業は透明性を約束し、規制当局は介入を警告しています。しかし、核心的な問題は変わりません:人々は理解できないものを信頼できず、ほとんどのAIシステムはユーザーにとって馴染みのない方法でコミュニケーションを取っています。
信頼の危機は信頼そのものというよりも、むしろ翻訳の問題です。ローン申請が拒否されたり、求職者が選考から外されたり、学生の志望理由書がAI盗用として指摘されたりする場合、システムがその理由を人間が理解できる言葉で説明することはほとんどありません。ユーザーは推測し、不満を抱き、懐疑的になります。
この技術は非常に機能的ですが、その仕組みを示しません。説明可能性がないのです。
この翻訳のギャップには経済的・社会的な影響があります。2023年のKPMGグローバル調査によると、61%の人々がAIシステムを信頼することに警戒心を持ち、メリットがリスクを上回ると信じているのは半数にすぎません。この不信感は、AIの導入遅延により、企業に数十億ドルの未実現生産性をもたらしています。
しかし問題はビジネスの成果を超えて広がっています。多くの分野で、AIシステムは個人に大きな影響を与える決定を形作っています。これらのシステムが自らを説明できない場合、彼らは説明責任のない門番となります。
教育はその明確な例です。アルゴリズムは学業成績、経済力、場所、キャリア目標など何千ものデータポイントを評価し、学生の将来に影響を与える推奨事項を生成します。
類似: 「AIジャッジ」はナイジェリアの司法制度の問題に対する解決策になり得るか?
しかし学生たちは、なぜ特定のオプションが表示されるのか、またはシステムが彼らの情報をどのように解釈しているのかをほとんど知りません。同様の不透明さは医療、採用、金融、公共サービスにも見られます。
AIが「説明するには複雑すぎる」という議論は的外れです。障壁は複雑さではなく、コミュニケーションです。他の分野では、専門家でない人々のために複雑な情報を毎日翻訳しています。課題は基盤となるシステムをより単純にすることではなく、ユーザーが理解できる方法でその論理を表現することです。
技術的な説明可能性の研究は進歩し続けていますが、モデルの動作を追跡する方法を提供しています。しかし、説明に核となる専門知識が必要な場合、これらの方法はほとんど意味をなしません。翻訳問題に対処するには、内部ロジックを公開するだけでなく、理解しやすく、関連性があり、使いやすい説明を生成する必要があります。
翻訳のギャップを解決することで、より迅速で自信を持った採用が可能になります。人々は理解できるツールを使用します。ユーザーがシステムが特定の方法で動作する理由を理解すると、その推奨事項を受け入れ、効果的に使用する可能性が高くなります。
今後、開発者は「これは機能するか?」だけでなく、「ユーザーはなぜ機能するのかを理解できるか?」と問う必要があります。AIを導入する組織は、技術的な最適化と並んでコミュニケーションデザインに投資すべきです。
画像出典:Unsplash
規制当局は監査人向けの文書だけでなく、ユーザー向けの説明を要求すべきです。明確な説明は、より良い決断、より多くの関与、そしてより公平な結果をサポートします。
翻訳はAIシステムの核心的な機能にならなければなりません。これは、平易な言葉でコミュニケーションを取るツールを設計し、実際のユーザーと説明をテストし、推論を明確に表現できないシステムの展開を控えることを意味します。人々の生活に影響を与える技術は、自らを説明できなければなりません。それ以下は信頼の問題ではなく、翻訳の失敗です。
マチルダ・オラディメジはルイジアナ州立大学の情報システム博士研究員で、AI説明可能性とユーザー信頼について研究しています。
彼女は以前、アフリカ全域でIntake Educationの地域マーケティングマネージャーを務め、100以上の大学のデジタルキャンペーンを管理していました。


