1897年、インディアナ州議会は、π (円周率)の値を3.2と再定義する 法案を可決しかけました。これは、州における数学教育を壊す可能性があります。 ViVE24のAIに関するノンストップとも思えるセッションの1つで、AIガバナンスの問題について発言した1人のパネリストが、最後に「数学を規制しようとしないでください」と言って締めくくったとき、私はこのことを思い出しました。
ガバナンス、ロードマップ、投資などに関する議論が、このイベントを支配していたことは、誰もが驚くことではありません。このイベントでインターシステムズのブースでは、クラウドソーシングを実施し、来場者からAIに対する意見を収集しました。 その結果は興味深いものでした。
回答者の80%が、生成AIで取り組むべき最大の課題は次のいずれかであると答えています。
- 倫理的および人的影響の問題(29%)
- データの準備(26%)
- アルゴリズムとデータのバイアス(25%)
私自身はデータのバイアスに一票を投じました。おそらくそれは、モデルの展開に関わる倫理的問題の基本であり、多くの意味でデータ準備の欠如の副産物であるように思えるからです。 しかし、当社の134のデータサンプルでは、この3つの課題には、ほぼ同じ重みづけがされていました。
一方、危害や乱用の最大のリスクについて質問したところ、その結果はもっと顕著なものでした。約46%が、同意しない、あるいは意図しない(あるいはその両方!)公的データ共有によって、患者データがパブリックドメインに流れてしまうリスクを懸念していました。 次に高かったのは、健康の公平性/デジタル格差の拡大(21%)と知的財産の悪用(19%)ですが、野放しになっている患者データへの懸念には遠く及びません。
これは医療関係者の集まりであるので、この結果は理解できます。私たちは生まれたときからHIPAAのルールを叩き込まれてきた傾向にあります。 とはいえ、業界をリードするアナリスト組織の代表と最近した会話と合わせて考えると、特に興味深いことです。 彼らは、事実上すべての臨床医が、その利用が組織によって認可されているか否かにかかわらず、また選択したアプリのプライバシープロファイルをほとんど考慮することなく、患者データを管理するために生成AIを何らかの形で利用していると考えています。 データが自然界に流出することを恐れるのも無理はありません。
また生成AIに対する個人的な感情を、恐怖から大歓迎、悲観的から楽観的、無力から制御可能という3つの尺度に沿って評価してもらいました。 恐怖や悲観を感じている人よりも、「とても無力だ」「やや無力だ」と答えた人の方が多くありました。 しかし、全体として、結果を肯定する指数にまとめると、ViVE24の回答者の平均は、3.88と肯定する方に寄っています。
ここまでのことから私自身が得たことは、数学を規制する必要はないが、正しいことを簡単にできるようにすることに努力する必要があるということです。ガバナンスモデル、構築するアプリケーション、あるいはデータを管理し、偏りのないアルゴリズムを構築する技術的能力を利用することなどによって。
HIMSS24のブース1361で、データに皆様の声を聞かせてください。