弁護士がチャットGPTで作成した裁判書類にミス、実在しない判例6件 米ニューヨーク
記事によると
・米ニューヨークの連邦裁判所で審理中の民事訴訟で、弁護士が対話型AI「チャットGPT」を使って作成した準備書面に、実在しない6件の判例が含まれていた。弁護士は「チャットGPTが虚偽内容を示す可能性に気づいていなかった」とし、「信頼性が完全に検証されるまで二度と頼らない」と述べた。
・弁護士は、2019年にニューヨーク行き航空機内で配膳カートがひざに当たって負傷したとして南米の航空会社を訴える男性の代理人。
・航空会社側の弁護団や裁判所が「判例データベースで確認できない」として問い合わせたところ、弁護士が書面の作成にチャットGPTを使ったと分かった。
・弁護士は実務歴30年のベテランで、チャットGPTを法的調査に利用したのは「初めて」という。裁判所や航空会社を欺く意図はなかったとし、「非常に後悔している」と述べた。
・裁判所は「前代未聞」と指摘、弁護士の処分の可否などを検討するための審理を開く予定。
以下、全文を読む
この記事への反応
・事前にチェックもしないのか。
・まだまだAIは人間には代わらないね。でも、実務家ならちゃんと確かめないと…
・使い方間違えてるだけじゃん笑
・嘘をつく機能は4.0でもなくなっていないのかな。
・実際使ってみれば分かるが、この手のAIはウソつきだよ。
・ChatGPTを信用して存在しない会計処理を容認して訂正報告行きになる監査人はまだですか?
・ChatGPTなんて、著名人の経歴でさえデタラメ言ってくるって実例が山ほどあるのに、なんで弁護の実務に使えるとおもったのか。まだ全然実用レベルでもないし、運用に関する法律もない。
・ほんとに使ったらこんなことになるという例。
AIは息を吐くようにウソをつくからね・・・
なぜ信用してしまったのか
なぜ信用してしまったのか


AIは弁護士を無能に変える
心象最悪の自爆行為じゃん
警察が都度犯人をAIにかけて処せばいい
税金の無駄時間の無駄が省けていいぞ
普通に使ってれば書類制作中に気づくだろ
1+1の答えをChatGPTに求めるとすると、1+1=2という計算を自身で行うのではなく、1+1=2という計算式を丸暗記してそのまま吐き出すようにできてる。したがって、類題に乏しい問いや複雑な計算を求めると、間違いだらけの答えっぽい結果しか寄越さない。数学が苦手な学生が、途中式や公式の仕組みを一切理解せず、ただ丸暗記した回答になぞって計算しても不正解の回答にしかならないのと同じ。
そこに正しい情報も織り交ぜてくるから余計たちが悪い
流行ってた漫画キャラクターの名前を訊いてみたら『〇〇出身のプロレスラー、90年代に××で行われたジャイアント馬場との試合は見物でした』とか長文で説明されたわ
その点は絵の出力方式と同じだね
bardも嘘ばっかつくしゴミ
使うとしたら直接的な勉学なんかに全く関係ない提出させるだけが目的のどうでもいい読書感想文くらいが
関の山だけど、そういうのも結局皆が使い出すと文章構成が似通ってバレるんだろうな
意思を持って虚偽を伝えている訳じゃないし
何回誤りを指摘しても同じ答えの繰り返し
ダメだこりゃ
話題の正否をAIが担保していない
彼らがしているのは回答ではなくあくまで対話
今のところ正否を判断するのは質問した側の仕事というだけ
そうなんか
そっちならいけそうな気もしたけど
だた収集した情報から出した回答が結果間違っていただけ
回答した時点では真実なのだ
育ててなきゃアホのままだぞw
それなら人件費削減出来たりでいいと思うがこういうのに使うべきじゃないわな
使うならそれこそ単純作業にAI導入して成功した実例何個も無いと
普通こんなんせんわ
ドラフト版を作ると言う意味でならとっても役に立つけど
AIが危険なのはいかにもそれっぽい回答作ってくるから、知識の無い人が使う事で間違いに気付かず、デマを広めてしまう事だと思う
もうAI推奨の擁護、弁護出来んなこれはw
この弁護士はちゃんと「この事例は実際にあったものですか?」ってちゃんと問い合わせてたから
ChatGPTに。
だから?
確認作業しないこいつがアホなだけ
震えて眠れ👊
フェイクニュースみたいなもんか
AIは判例データベースにアクセスできないから
ネット情報をソースにしてるだけ
手間を惜しんだ馬鹿ってだけやん
もしかして、政府ってバカなの?
ネットで偽情報をつかまされてら
そりゃこうなるだろうよ
↑
みたいな感じ?
たまに間違った回答をするんだから事実かどうかは確認しないやつが悪い
確認しないと駄目なの!?
使えねー
極限定的な専門分野の知識のみを与えたAIでもまだ信用おけるか怪しくなってきたね
AIはネットでググってるだけで
情報データベースがある訳じゃないから
真偽は確認するのは当然
そいつもAI以下かもな
ってかこの弁護士みたいに大失敗すると思う(反省はしなさそう)
判決データベースで確認できる
弁護士がその手間を惜しんだのが原因
定型文とか何かの例文みたいなを作るのは得意でも、正しい計算をしてくれるわけじゃない。
ネットの情報が100%正確な訳じゃないからなぁ
判例の場合だと判例データベースにアクセスしないで
ネットソースで探すと誤情報が紛れ込む
ネットの最新の情報が正しいと思ってそう
FCドラクエ4のボスにザキを連発して学習してザラキを使ってた頃と変わらん
基礎の書類作りにAI利用はしても
最後の確認は自分がしなくちゃいけないんじゃないの?
この人はそれを怠ったんだろ
Chat GPTで近所のおすすめの店でも聞いてみ
電話番号付きで架空の店をリストアップしてくれるから
まともな回答が得られるなら弁護士は不要になり、どっちにしても自己否定だが。
創作するのは得意なAIってだけなのを忘れてない
せめて裏取ってからにしろや
せめて出力された情報の裏取りする労力くらいは払えよ
日本にはあるよ。
chatGPTもAIがメディアリテラシーを身に着けない限りは、検索エンジンに代替することは出来ないよ。
個人アカで勝つgpt4使わないで作成したんか?w
教科書で覚えさせられた日本の歴史すらあちこち嘘なんだし
後で「アレ嘘やったわw」とか散々やってる
最新の情報を嘘工作したらすぐに嘘を反映しそう
普通は「へぇ、そんな判例あるんだ」って思いながら調べるよね
なんで一切調べずにそのまま提出しているんだよ
お前を不幸にしてやろうか?って話だよ
ニシおじやチカおじはAIだった?
やっぱりAIダメだわってなってきてるな。
マジでこういう使い方してる馬鹿いるんだな
嘘はつかない
ネットのデマ情報がソースだったりするだけ
それっぽく語るからたちが悪いな~と思ってた
AI関係なく不注意すぎる。
調べてもらった後に裏付け取ればよかっただけよ
AI先生からの回答だから間違いない
注意書きにデカデカと記す程度にはAIは嘘をつくと知られてるからね
ある意味では無茶苦茶に人間らしいよAI(人工知能)って・・・悪い意味で
弁護士が言う内容までAIでまかなったら、素人が自分でAI使って、弁護士不要になるねw