コーヒー1杯の暖かさ

心理学を研究する大学院生が、研究もそこそこちゃんとやりながら、日本の教育に一石を投じます。

AIが生み出したアートは誰の手に渡るのか?(Epstein et aI., IScience, 2020)

f:id:jin428:20210619221938j:plain


みなさんこんにちは!

微かに混じり合う教育と心理学とアートを考えていますじんぺーです。

今日も論文を読んでいきます。

  

www.jinpe.biz

 

 

AIが生み出したアートは誰の手に渡るのか?(Epstein et aI., IScience, 2020)

結論からいうと、人によってAIを擬人化して認識する程度に自然な異質性があることを明らかにした

 

背景

■関連する可能性のある人間の利害関係者がどのようなもので、AIシステムの中で相対的にどのような位置づけにあるのかを知る

・Eshraghianはプログラマー、トレーナー、ユーザーを区別(Eshraghian, 2020)

・McCormackらも同様に、ソフトウェアの作成者、データセットのキュレーター、アルゴリズムのトレーニングやパラメータの修正を行う人を区別(McCormackら, 2019)

■AIシステムの擬人化

・近年、Atariゲーム(Mnih et al., 2015)、囲碁(Silver et al., 2016)、肺がん検出(Ardila et al., 2019)などのタスクで超人的なパフォーマンスを発揮することがブーム

・メディアでAIの擬人化が盛んに行われるようになった(Proudfoot, 2011; Watson, 2019; Salles et al., 2020)

・多くのMLタスクや技術が、そのタスクを行う人間に使うのと同じ言葉を使って説明:読解(Hermann et al., 2015)、作曲(Mozer, 1994)、好奇心(Schmidhuber, 1991)、恐怖(Lipton et al., 2016)、「思考」ベクトル(Kiros et al., 2015)、「意識」プライア(Bengio, 2017)など

・私たちの「心の知覚」(意図、信念、価値の推論として現れる)が個人によって意味を持って変化し、私たちの道徳的判断を形成するという研究の高まり

■目的

1. AIアートの制作において、人々は様々なアクターにどのような信用と責任を割り当てるべきだと考えているのか?

2. AIシステムの擬人化に対する人々の認識に応じて、これらの直感はどのように変化するのか?

 

研究1

■手続き

・参加者は、AIアートワークが作成されるプロセスを説明した様式化されたヴィネットを読んだ

・AIアートの制作に関わったエージェントに責任と金銭的な信用を与えるように求められた

・AIの擬人化(Waytz et al., 2014)についての認識を問う4つの質問を行い,それらを合計してスコアを算出した

・2つの条件に無作為割り当て:一方の条件では、芸術作品が著作権法に違反していることが判明し、罰金が課せられ(ネガティブな結果)、もう一方の条件では、美術品が好意的に受け止められ、一流のオークションハウスで落札された(ポジティブな結果)

■AIシステムをより大きく擬人化する被験者は、AIシステム自体により多くの責任を割り当てるという仮説

■結果

・擬人化スコアの中央値以上の評価を受けた参加者は、擬人化スコアの中央値以下の評価を受けた参加者に比べて、AIにより多くの責任(4.75)を割り当てた(それぞれ、4.75対3.03、t = -5.1159, df = 113.67, p < 0.001, 事前登録済み)

・擬人化とAIの責任感の間には、どちらの価値観においても少なくともわずかに有意な正の関係があるのに対し、その関係は、正の価値観の場合(r = 0.2111, t = 1.794, p = 0.0771)に比べて負の価値観の場合(r = 0.4994, t = 4.237, p < 0.0001)に有意に強い

・中央値よりもAIを擬人化した参加者は、中央値よりもAIを擬人化しなかった参加者と比較して、群衆と技術者に多くの責任を割り当てている

 

研究2

■研究1で観察された相関関係が実際に因果関係があるかどうかを検証

・AIの擬人化を実験的に操作し、その操作が関係する人間の知覚に与える影響を検討

・ツール条件では、AIは人間のアーティストが使う道具として説明され、エージェント条件では、AIはエージェント的に擬人化されたAIアーティストとして説明された

■結果

・条件によってAIエージェントの擬人化の知覚に有意な差があることがわかった(t = -2.75, df = 317.99, p = 0.003)

・AIシステムがエージェントとして記述されている場合,AIシステムが非エージェントとして記述されている場合と比較して,参加者はより多くの責任を負う(t = 2.5928, df = 311.69, p = 0.0004,)

・AIをエージェントとして表現した場合、参加者は、AIを非エージェントとして表現した場合(t = -4.38, df = 311.43, p値 = <0.0001, 事前登録)と比較して、アーティストへの罰金・賞罰が少なく(t = -5.37, df = 317.99, p値 = <0.0001)

・AIシステムを開発した技術者への罰金・賞罰が多い

・条件を問わず、責任と信用の配分について、参加者は、アーティストが最も責任があると考えており、次いでキュレーター、技術者、最後に群衆と考えていることがわかった

 

コメント

心理学者の論文じゃないので、少し読みにくいが、擬人化とAIアートの責任の所在の関係を探った研究として意義がある!

 

論文

Epstein, Z., Levine, S., Rand, D. G., & Rahwan, I. (2020). Who Gets Credit for AI-Generated Art? IScience, 23(9), 101515. https://doi.org/10.1016/j.isci.2020.101515