これは鹿ですか? 社会を意識した AI は、人間に質問することで適応します

学者たちは、人間に質問をすることで学習し、社会的に意識した観察に基づいてそれらを適応させるエージェントを構築しました。 「あれは何の動物ですか?」 が応答を引き出さない場合、アルゴリズムは代わりに「私が見ているのはシカですか?」と尋ねるかもしれません。 クレジット: DALL-E

人工知能エージェントは、どれほど優れたものになったとしても、依然として、訓練されたデータと同じくらい優れているにすぎません。 彼らは何を知らないのかわからない。 現実の世界では、なじみのない状況や環境に直面した人々は、周囲の人が何をしているかを観察したり、質問したりすることで適応します。 彼らが言うように、ローマにいるとき。 教育心理学の専門家は、これを「社会的状況の学習」と呼んでいます。

これまで、AI エージェントにはその場で学習するこの能力が欠けていましたが、スタンフォード大学の研究者は最近、人々に質問することで新しい知識を探す能力を備えた人工知能エージェントを開発したと発表しました。

「私たちは、写真を見て自然言語で質問することを学習するエージェントを構築し、最初にトレーニングされたデータセットを超えて知識を拡張しました」と、ジャーナルに掲載された最近の研究の筆頭著者であるランジェイ クリシュナは述べています。 米国科学アカデミーの議事録. クリシュナはスタンフォード大学で博士号を取得し、現在はワシントン大学の教員です。

不思議な意識

新しいアプローチは、コンピューター ビジョンと人間の認知科学および行動科学の側面を組み合わせて、機械学習を新しい方向に導きます。 彼らはそれを「社会的に位置付けられた人工知能」と呼んでいます。

この研究のキッカーは、人々が AI の質問に答えたがらない、または無関心である場合に、AI が適応することです。

たとえば、人物となじみのない 4 本足の動物の写真を分析する場合、アルゴリズムは最初に「それはどのような動物ですか?」と尋ねることがあります。 それは皮肉な、または皮肉な答えを生むかもしれません (「それは人間です」) または、さらに悪いことに、まったく答えが得られないかもしれません。 代わりに、アルゴリズムは「これは私が見た犬ですか?」と尋ねるかもしれません。 このように質問すると、「いいえ、それはシカです」という真実の答えが得られる可能性が高くなります。

「人々は、AI が提起する可能性のあるあらゆる質問に喜んで答える、真剣な回答者であると考えたいのですが、多くの場合、そうではありません」とクリシュナ氏は言います。 「私たちのエージェントはこれを感知し、人々がどの質問に答えるか、または答えないかについての社会的観察に基づいて、質問を変更します。」

新しいエージェントは、一度にいくつかの目標を達成します。 まず、もちろん、主な目標である新しい視覚的概念を学習します。 しかし、第二に、社会規範を読むことも学びます。 さらに、クリシュナは、累積効果があると指摘しています。 質問をして新しい情報を学習した後、AI は自分自身を再訓練します。 次回は、世界についてより多くのことを学習したため、別の質問をします。

「テーブルを説明する方法はたくさんあります。当然のことながら、人は、不誠実、無意味、または単に退屈だと思われる質問に答えたくないかもしれません」とクリシュナは言います. 「しかし、エージェントは、エージェントが学習するにつれてより洗練された巧妙な質問で、これらの課題を回避します。」

仮説の検証

彼らのアプローチをテストするために、クリシュナ博士のアドバイザーであるスタンフォード HAI の共同ディレクターである Fei-Fei Li 氏と、スタンフォード大学コンピューター サイエンス学部の教授である Michael Bernstein を含む研究チームは、8 か月の実験に従事し、閲覧した画像を写真アルゴリズムに投稿しました。をベースとするソーシャル メディア プラットフォームで、約 236,000 人に質問を投げかけました。その多くは写真家自身でした。

実験の過程で、新しいアルゴリズムは、人間の通信者によって投稿された画像の新しい視覚情報を認識する能力が 2 倍以上になりました。

ソーシャル AI の可能性

研究者は、ソーシャルに配置された AI は、AI が学習する方法の制限を克服し、インテリジェンスの収集を新しい方向に進めることができると考えています。 研究者たちは、このアプローチが、AIエージェントが自分自身の反社会的行動を認識し、その場で質問を適応させて、あまりにも人間的な性質を回避できる機会を生み出すと考えています。

「エージェントには反復学習プロセスがあり、時々、見たすべての新しいコンテンツを使用して自分自身を再訓練するため、次回は世界について学んだことに基づいてさまざまな質問をします。クリシュナは言います。 「より良い質問をすることを学ぶにつれて、答えられた人間は関心を持ち続けます。」

最も重要なことは、AI が最初にトレーニングされたデータセットを超えて新しい情報を学習できるようにすることです。 著者が論文で述べているように、現在のトレーニング方法は、本が山積みされた部屋にエージェントを閉じ込めるのと同じです。 それらのページが学習されると、将来のすべての決定は、それらの本から収集した情報のみを使用して行う必要があります。

さらに問題を複雑にしているのは、AI が訓練するために与えられた本が何であれ、最初に人々によって注釈を付けられなければならないということです。これは、人工知能では「ラベル付け」として知られているプロセスです。 つまり、ヒューマン・アノテーターは、AI が見ることを学習する前に、何を見ているかを AI に伝える必要があります。 残念ながら、アノテーターに日常的なコンテンツにラベルを付けるのは困難です。 そして、そのラベル付けがなければ、AI は学習できません。

アノテーターにデータのラベル付けを依頼する代わりに、自分の状況について質問することで社会的に学習できるエージェントは、人々から有益な反応を得る可能性が高くなります。

新しいエージェントは、質問をすることで効果的にラベリングを達成し、人間の通信者が気が進まないことを感知すると、真剣で真実の答えを得るために新しい方法で質問することを学びます。

特定の潜在的なリスクもあります。 Microsoft の Tay を例に挙げると、同様のエージェントが Twitter で行っていることであり、人々とのやり取りから学んだ反社会的なツイートをすぐに投稿し始めましたが、この社会的に位置付けられた AI は同じ問題に苦しんでいません。 ユーザーは対話を開始しないため、エージェントに対する攻撃を調整することはできません。 エージェントは対話する相手を決定し、興味深い質問をして学習内容を制御します。

著者らはまた、AI が人々に自己紹介して有益な情報を集め、「荒らし」の反応を避ける方法を研究するための実験も行いました。 いずれにせよ、クリシュナ氏は、AI が人間から学習する可能性のあるバイアスを説明し、学習したバイアスがもたらす可能性のあるリスクを軽減するために、まだ多くの研究を行う必要があると述べています。

今のところ、エージェントの現在のバージョンはソーシャル メディア上でデジタル的に動作します。 クリシュナの次のステップは、このアプローチを現実世界の状況に適用することです。ロボットが間違いを犯しているのを見つけたときに、人がその場でロボットを修正する可能性があります。 彼は、人々が自宅でロボットに教えて、生活を楽にする新しいタスクを達成できる日が来ると予見しています。

その他の潜在的なアプリケーションには、ロボットが提供者に医療処置を明確にするよう依頼するヘルスケア、ユーザーからの直接のフィードバックに基づいてインターフェースを変更する技術、多様なコミュニティから学習して学習を改善できる文化を意識したエージェントなどがあります。

「私は、人々がロボットとやり取りして新しいタスクを解決させる物理的な世界に移行することに興味があります。または、AI が間違いを犯しているのを見つけた場合、人々はすぐにフィードバックを提供し、すぐに修正できるようにする必要があります。」クリシュナは次のステップについて語っています。

詳しくは:
Ranjay Krishna ら、社会的に位置付けられた人工知能は、人間の相互作用からの学習を可能にします。 米国科学アカデミーの議事録 (2022)。 DOI: 10.1073/pnas.2115730119

スタンフォード大学提供

引用:これは鹿ですか? 社会的認識 AI は人間に質問することで適応する (2022 年 11 月 10 日) https://techxplore.com/news/2022-11-deer-socially-aware-ai-humans.html から 2022 年 11 月 10 日取得

このドキュメントは著作権の対象です。 個人的な研究または調査を目的とした公正な取引を除き、書面による許可なしに、いかなる部分も複製することはできません。 コンテンツは情報提供のみを目的として提供されています。

Leave a Comment

Your email address will not be published. Required fields are marked *