[2-H-3-4] AIの倫理とガバナンス
人工知能(AI)に対する期待が高まる一方で、AIに対する懸念やその社会的な影響についても世界各国で多くの議論が行われている。
このような中、AIの倫理や価値に関する議論は、(1)専門家の倫理、(2)AIの研究開発や社会的影響に関する倫理、(3)倫理的に振舞うAI技術開発の3つに大まかに分類される。最初の「専門家の倫理」とは、専門家としての行動規範であり、学会や大学など組織単位で規定されるものである。
AIの倫理(AI Ethics)にはAI技術開発時や利用時に考慮すべきプライバシーやセキュリティなどに加え、自己学習する技術によって増幅されるバイアスへの懸念などもある。技術的、制度的な観点から、どのようにすればそのような不安や懸念を取り除くことができるか、特にFairness, Accountability and Transparency (FAT)と呼ばれる研究領域が、近年1つの異分野横断の研究領域として議論が進められている。
またこのような研究を通して、そもそも専門家の倫理とは何でどうあるべきか、公平性とは何か、そしてそれをどのように人工知能技術に埋め込んでいくべきかという倫理的なAI(Ethical AI)に関する議論も推進されている。医療においても、医療従事者の仕事や役割、患者との関係などをどのように「再構成」するかについての議論が現在求められている。
AIに関するリスクには、生命や尊厳にかかわるものなど多岐にわたるテーマがある。また、人々の価値観が多様化している現在、何が誰にとって「善い」のかも単一に定義することは難しい。そのため、現在、多様な人々を包摂して倫理や価値を再定義、する試みが行われている。容易に答えがでる問題ではないが、本発表では、AIの倫理とそのガバナンスの在り方について、医学医療分野におけるAI関連技術にも関連させながら、国内外の様々な事例や論点を紹介したい。
このような中、AIの倫理や価値に関する議論は、(1)専門家の倫理、(2)AIの研究開発や社会的影響に関する倫理、(3)倫理的に振舞うAI技術開発の3つに大まかに分類される。最初の「専門家の倫理」とは、専門家としての行動規範であり、学会や大学など組織単位で規定されるものである。
AIの倫理(AI Ethics)にはAI技術開発時や利用時に考慮すべきプライバシーやセキュリティなどに加え、自己学習する技術によって増幅されるバイアスへの懸念などもある。技術的、制度的な観点から、どのようにすればそのような不安や懸念を取り除くことができるか、特にFairness, Accountability and Transparency (FAT)と呼ばれる研究領域が、近年1つの異分野横断の研究領域として議論が進められている。
またこのような研究を通して、そもそも専門家の倫理とは何でどうあるべきか、公平性とは何か、そしてそれをどのように人工知能技術に埋め込んでいくべきかという倫理的なAI(Ethical AI)に関する議論も推進されている。医療においても、医療従事者の仕事や役割、患者との関係などをどのように「再構成」するかについての議論が現在求められている。
AIに関するリスクには、生命や尊厳にかかわるものなど多岐にわたるテーマがある。また、人々の価値観が多様化している現在、何が誰にとって「善い」のかも単一に定義することは難しい。そのため、現在、多様な人々を包摂して倫理や価値を再定義、する試みが行われている。容易に答えがでる問題ではないが、本発表では、AIの倫理とそのガバナンスの在り方について、医学医療分野におけるAI関連技術にも関連させながら、国内外の様々な事例や論点を紹介したい。