人工知能(AI)は動的に発展しており、医学の未来です。ただし、人工知能を定義する国際レベルでの規制、特に法的定義はまだ不十分であり、したがって、AI支援機器の使用時に発生する可能性のある医療エラーの責任の問題が明確になっています。
医療におけるAIの可能性
人工知能によってサポートされる診断ツールは、ヘルスケアの品質と効率を向上させます。これらは主に、患者へのインタビュー、検査結果の分析、治療を受ける人の状態の監視、および適切な診断を行うために医師によるその他の多くの活動で使用されます。それらの適切な機能は、主に患者に関する特定のデータを含む、さまざまな情報の大量に依存しています。
-このような情報への制御されていないアクセスは、個人の個人的な利益に害を及ぼす可能性があります。患者情報リソースを共有したくない民間医療を提供するセンター-Konrad Jagocha、Koncelaria PrawnaChałasiWspólnicyのアソシエイトは、データの蓄積について懐疑的です。
いくつかのAIシステムはすでに医学で使用されています。その1つがDXplainです。これは、患者で観察された一連の症状を分析した後、考えられる診断のリストを表示するプログラムです。しかし、彼は最終的な選択を医師に任せています。 Germwatcherにも注目する価値があります。入院患者の感染の可能性を検出、追跡、検査する検査情報システムです。
ロボット手術システムの導入は明らかに画期的なことでした。ロボットアーム、正確な動き、磁気ビジョンを備えたDaVinciシステムを使用して、臨床医は標準的な手順では不可能な手術を行うことができます。
規制の必要性
欧州議会は、欧州経済社会委員会とともに、人工知能の正確な定義を作成する必要があることを示しています。それは高いストリンジェンシーの要件を満たし、したがって追加のあいまいさ、疑い、または法的な抜け穴を導入してはならず、将来的にAIテクノロジーの潜在的な開発を阻害しないように技術的に「オープン」である必要があります。
合法的なAIの定義により、AI支援マシンの使用時に発生する医療エラーの責任者を特定できるようになります。
-民法の規定に従い、特定の事業体に責任を割り当てることができるようにするためには、とりわけ、前提の1つ、彼の行為または不作為と、損傷が発生した結果としてのイベントとの間の適切な因果関係。人工知能に起因する活動について、エンティティに民事責任を割り当てることは非常に難しいようです。医師は自律的な個人の意図を予測することはできません。これは、医療でのAIの使用の反対者、特にKonrad Jagocha准教授、Kancelaria PrawnaChałasiWspólnicyによって注目される問題です。
また、人工知能リソースを備えたマシンによる診断の開発は、医師より統計的に効果的で高速であることも注目に値します。ただし、専門家は、医療におけるAIは、混乱がもたらす可能性のある影響の重要性のため、常に人間の監督下にあるべきであることを強調しています。これは、たとえば、米国食品医薬品局(FDA)の精神であり、医師はリスクの低いAI研究のみを実施できます。