何よりも企業に求められるのは、生成AIが間違いを犯すという前提に基づいた準備や行動だ。 エア・カナダの事例で言えば、最初にジェイクからの訴えを受けた際、自社には非がなかったかのように振る舞ったのは決定的な間違いだったと言えるだろう。慎重な企業であれば、チャットボットが顧客の金銭的被害を伴う誤解を生みだした場面を想定し、その対応策を事前に設計していたはずだ。 内部文書で法的なミスを犯してしまった企業に求められていたのは、人間の専門家によるチェックだ。そもそもそうした手間をかけたくないから生成AIに頼んだんじゃないか、と言われてしまうかもしれないが、そもそも「自分たちではAIが間違えているかどうか分からない」という領域で生成AIを活用すべきではない。 「生成AIは間違うものだ」という認識があれば、その間違いを発見するためのコストを事前に把握して、それが負担できない使い方であれば回避するという対