AI を正しく行うために組織的な AI 倫理委員会が必要な理由

Low-Code/No-Code Summit のオンデマンド セッションをチェックして、シチズン デベロッパーのスキルアップとスケーリングによってイノベーションを成功させ、効率を達成する方法を学びましょう。 今見る.


多くの人にとって、人工知能 (AI) はまだ少し未来的であると感じるかもしれませんが、平均的な消費者は AI がどこにあるかに驚くでしょう。 それはもはや、ハリウッドや長編映画に限定された SF の概念や、世界中の Google や Metas のコンピューター サイエンス ラボでしか見られない極秘技術ではありません。 今日、AI はオンライン ショッピングやソーシャル メディアでのおすすめ、カスタマー サービスへの問い合わせ、ローン承認の多くを支えているだけでなく、積極的に音楽を作成し、アート コンテストで優勝し、数千年にわたって存在してきたゲームで人間を打ち負かしています。

AI の広範な機能を取り巻く認識のギャップが拡大しているため、AI を使用または提供する組織や企業にとって重要な最初のステップは、AI 倫理委員会を形成することです。 この委員会は、エンゲージメントと教育という 2 つの主要なイニシアチブを担当します。

倫理委員会は、AI が使用および実装される際の不正行為や非倫理的な適用を防止するだけではありません。 また、規制当局と緊密に連携して、現実的なパラメーターを設定し、潜在的な落とし穴や偏見から個人を積極的に保護するルールを策定します。 さらに、消費者を教育し、批判的思考に裏打ちされたニュートラルなレンズを通して AI を見ることができるようにします。 ユーザーは、AI が私たちの生活や働き方を変え、何世紀にもわたって人類を悩ませてきた偏見や差別的慣行を永続させる可能性があることを理解する必要があります。

AI倫理委員会の事例

AI に取り組んでいる主要機関は、AI が世界をポジティブに変えるだけでなく、害を及ぼす可能性を最も認識していると思われます。 この分野で他の人より経験豊富な人もいるかもしれませんが、内部監視は、あらゆる規模の組織で、さまざまな経験を持つリーダーシップを持つ組織にとって重要です。 たとえば、自然言語処理 (NLP) モデルが実際には知覚力のある AI である (そうではなかった) と確信していた Google のエンジニアは、教育や内部の倫理的パラメーターでさえも優先しなければならないという明確な例です。 AI 開発を右足で開始することは、その (そして私たちの) 将来の成功にとって最も重要です。

イベント

インテリジェント セキュリティ サミット

サイバーセキュリティにおける AI と ML の重要な役割と業界固有のケース スタディを 12 月 8 日に学びます. 今すぐ無料パスに登録してください.

今すぐ登録

たとえば、Microsoft は常に AI を使用して革新を続けており、倫理的な考慮事項を最前線に置いています。 ソフトウェアの巨人は最近、AI を使用して Teams 会議を要約する機能を発表しました。 これは、メモを取ることを減らし、より戦略的でその場で考えることを意味する可能性があります。 しかし、この勝利にもかかわらず、このソフトウェア会社から完璧な AI イノベーションがもたらされたわけではありません。 この夏、Microsoft はバイアスのリスクを理由に AI 顔分析ツールを廃止しました。

開発は毎回完璧ではありませんでしたが、リスクのレベルを判断するための倫理的ガイドラインを整備することの重要性を示しています. Microsoft の AI 顔分析の場合、それらのガイドラインは、リスクが報酬よりも大きいと判断し、緊急に必要な月次サポート チェックを許可されるか、不当に拒否されるかの違いなど、潜在的に有害な結果をもたらす可能性のある何かから私たちを保護します。 .援助。

受動的な AI よりも積極的な AI を選択する

社内の AI 倫理委員会は、新技術の開発と進歩に対する抑制と均衡の役割を果たします。 また、組織は、規制当局がすべての市民を有害な AI から保護する方法について、十分な情報を提供し、一貫した意見を策定することもできます。 AI 権利章典に関するホワイトハウスの提案は、積極的な規制が間近に迫っていることを示していますが、業界の専門家は、安全な AI に関して市民や組織にとって何が最善かについて、知識豊富な洞察を持っている必要があります。

組織が AI 倫理委員会の設立を約束したら、受動的なアプローチではなく、次の 3 つの積極的なアプローチを実践することが重要です。

1.意図を持って構築する

最初のステップは、委員会と一緒に座り、一緒に最終目標を確定することです。 研究するときは慎重に。 テクニカル リーダー、コミュニケーター、および委員会の方向性について追加すべきことがある組織全体のすべての人に相談してください。意見の多様性は非常に重要です。 目標と目的が早い段階で確立されていないと、AI 倫理委員会の範囲と主要な機能を見失いやすく、最終的な製品が当初の意図から逸脱する可能性があります。 解決策を見つけ、タイムラインを作成し、それを守りましょう。

2. 海を沸騰させないで

世界中を取り囲む広大な青い海のように、AI は広大で深遠な複雑な分野であり、多くの未開拓の塹壕があります。 委員会を開始するときは、範囲が広すぎたり、範囲が広すぎたりしないでください。 AI 計画に集中し、意図的に取り組みます。 このテクノロジーを使用して何を解決または改善しようとしているのかを理解してください。

さまざまな視点に心を開いてください

ディープ テックのバックグラウンドは役に立ちますが、充実した委員会にはさまざまな視点と利害関係者が含まれます。 この多様性により、潜在的な倫理的な AI の脅威について貴重な意見を表明することができます。 法務チーム、クリエイティブ、メディア、エンジニアを含めます。 これにより、倫理的ジレンマが発生する可能性のあるすべての分野で、会社とそのクライアントに代表権が与えられます。 全社的な「行動喚起」を作成するか、アンケートを準備して目標を定義します。ここでの目的は対話を広げることです。

教育と関与が命を救う

AI 倫理委員会は、AI を使用する組織の成功の 2 つの側面である、教育と関与を促進します。 エンジニアから会計のトッドとメアリーに至るまで、社内のすべての人に AI の落とし穴について教育することで、組織は規制当局、消費者、業界関係者に情報を提供し、人工知能の問題に関与して教育を受ける社会を促進することができます。

CF Su は、Hyperscience の機械学習担当副社長です。.

データ意思決定者

VentureBeat コミュニティへようこそ!

DataDecisionMakers は、データ作業を行う技術者を含む専門家が、データ関連の洞察とイノベーションを共有できる場所です。

最先端のアイデアや最新情報、ベスト プラクティス、データとデータ技術の未来について読みたい場合は、DataDecisionMakers に参加してください。

あなた自身の記事を寄稿することを検討するかもしれません!

DataDecisionMakers の続きを読む

Leave a Comment

Your email address will not be published. Required fields are marked *