• 3日ランキング
  • 1週間ランキング
  • 月間ランキング




弁護士がチャットGPTで作成した裁判書類にミス、実在しない判例6件 米ニューヨーク
1685544285452

記事によると



・米ニューヨークの連邦裁判所で審理中の民事訴訟で、弁護士が対話型AI「チャットGPT」を使って作成した準備書面に、実在しない6件の判例が含まれていた。弁護士は「チャットGPTが虚偽内容を示す可能性に気づいていなかった」とし、「信頼性が完全に検証されるまで二度と頼らない」と述べた。

・弁護士は、2019年にニューヨーク行き航空機内で配膳カートがひざに当たって負傷したとして南米の航空会社を訴える男性の代理人。

・航空会社側の弁護団や裁判所が「判例データベースで確認できない」として問い合わせたところ、弁護士が書面の作成にチャットGPTを使ったと分かった。

・弁護士は実務歴30年のベテランで、チャットGPTを法的調査に利用したのは「初めて」という。裁判所や航空会社を欺く意図はなかったとし、「非常に後悔している」と述べた。

・裁判所は「前代未聞」と指摘、弁護士の処分の可否などを検討するための審理を開く予定。

以下、全文を読む

この記事への反応



事前にチェックもしないのか。

まだまだAIは人間には代わらないね。でも、実務家ならちゃんと確かめないと…

使い方間違えてるだけじゃん笑

嘘をつく機能は4.0でもなくなっていないのかな。

実際使ってみれば分かるが、この手のAIはウソつきだよ。

ChatGPTを信用して存在しない会計処理を容認して訂正報告行きになる監査人はまだですか?

ChatGPTなんて、著名人の経歴でさえデタラメ言ってくるって実例が山ほどあるのに、なんで弁護の実務に使えるとおもったのか。まだ全然実用レベルでもないし、運用に関する法律もない。

ほんとに使ったらこんなことになるという例。





AIは息を吐くようにウソをつくからね・・・
なぜ信用してしまったのか

B0C1J6N7FG
コナミデジタルエンタテインメント(2023-09-14T00:00:01Z)
レビューはありません



B0BPLF9G62
スクウェア・エニックス(2023-06-22T00:00:01Z)
レビューはありません










コメント(129件)

1.はちまき名無しさん投稿日:2023年06月01日 01:01▼返信
🍖
2.はちまき名無しさん投稿日:2023年06月01日 01:02▼返信
もう弁護できないねえ
3.はちまき名無しさん投稿日:2023年06月01日 01:03▼返信



AIは弁護士を無能に変える


4.はちまき名無しさん投稿日:2023年06月01日 01:04▼返信
まさかこの弁護士って日本の姫さまの旦那じゃないだろなw
5.はちまき名無しさん投稿日:2023年06月01日 01:05▼返信
KKじゃないんか?
6.はちまき名無しさん投稿日:2023年06月01日 01:09▼返信
なぜ検証をしないのか
心象最悪の自爆行為じゃん
7.はちまき名無しさん投稿日:2023年06月01日 01:09▼返信
過去の判例に基づくだけなら裁判官も弁護士も検察官もいらんよなあ
警察が都度犯人をAIにかけて処せばいい
税金の無駄時間の無駄が省けていいぞ
8.はちまき名無しさん投稿日:2023年06月01日 01:10▼返信
ひろゆきはAI推しだよな、なんかひっかきまわしたいだけなのか、自分が面白ければ
9.はちまき名無しさん投稿日:2023年06月01日 01:11▼返信
今すぐ辞めてほしいレベル
10.はちまき名無しさん投稿日:2023年06月01日 01:12▼返信
chatGPTって嘘つく確率は相当高いぞ
普通に使ってれば書類制作中に気づくだろ
11.はちまき名無しさん投稿日:2023年06月01日 01:13▼返信
ChatGPTは自分で思考したものではなく、他人の答えを丸暗記したものしか吐き出さない
1+1の答えをChatGPTに求めるとすると、1+1=2という計算を自身で行うのではなく、1+1=2という計算式を丸暗記してそのまま吐き出すようにできてる。したがって、類題に乏しい問いや複雑な計算を求めると、間違いだらけの答えっぽい結果しか寄越さない。数学が苦手な学生が、途中式や公式の仕組みを一切理解せず、ただ丸暗記した回答になぞって計算しても不正解の回答にしかならないのと同じ。
12.はちまき名無しさん投稿日:2023年06月01日 01:15▼返信
うそはうそであると見抜ける人でないと(AIを使うのは)難しい
13.はちまき名無しさん投稿日:2023年06月01日 01:18▼返信
無能が讃えるだけあるなw
14.はちまき名無しさん投稿日:2023年06月01日 01:22▼返信
間違った情報をソースにして提示してくるならまだしも検索して1件も出てこないような完全に捏造レベルの回答してくるからな
そこに正しい情報も織り交ぜてくるから余計たちが悪い
15.はちまき名無しさん投稿日:2023年06月01日 01:22▼返信
chatGPTって架空の話出してくるからなぁ

流行ってた漫画キャラクターの名前を訊いてみたら『〇〇出身のプロレスラー、90年代に××で行われたジャイアント馬場との試合は見物でした』とか長文で説明されたわ
16.はちまき名無しさん投稿日:2023年06月01日 01:22▼返信
>>11
その点は絵の出力方式と同じだね
17.はちまき名無しさん投稿日:2023年06月01日 01:23▼返信
AI信頼度いきなりMAXはやべえ
18.はちまき名無しさん投稿日:2023年06月01日 01:23▼返信
この手の件はbingのほうが精度は高い
bardも嘘ばっかつくしゴミ
19.はちまき名無しさん投稿日:2023年06月01日 01:25▼返信
ぷぷぷ
20.はちまき名無しさん投稿日:2023年06月01日 01:25▼返信
GPT-4でも余裕で嘘をつく
21.はちまき名無しさん投稿日:2023年06月01日 01:26▼返信
結局ChatGPTを使った部分にヒューマンチェックを入れる必要があるから意味ないわな
使うとしたら直接的な勉学なんかに全く関係ない提出させるだけが目的のどうでもいい読書感想文くらいが
関の山だけど、そういうのも結局皆が使い出すと文章構成が似通ってバレるんだろうな
22.はちまき名無しさん投稿日:2023年06月01日 01:35▼返信
chatGPTが嘘をつくって言葉なんだか違和感なんよな
意思を持って虚偽を伝えている訳じゃないし
23.はちまき名無しさん投稿日:2023年06月01日 01:38▼返信
AIのくせにクリエイティブやな
24.はちまき名無しさん投稿日:2023年06月01日 01:39▼返信
チャットGPTの情報精度はガバガバだぞ。日本語のことわざ聞いてるのに、普通に中国語混ぜてきたりする
25.はちまき名無しさん投稿日:2023年06月01日 01:39▼返信
人間もミスるけどね
26.はちまき名無しさん投稿日:2023年06月01日 01:43▼返信
今のところ学習して会話を成立させるもので正解を出してくれるものではないからAIを嘘つきと罵ったところで意味ないんだよね
27.はちまき名無しさん投稿日:2023年06月01日 01:43▼返信
使う人間がアホだったいい例だな
28.はちまき名無しさん投稿日:2023年06月01日 01:47▼返信
それよりもしょうもない事で裁判しとるやん
29.はちまき名無しさん投稿日:2023年06月01日 01:48▼返信
単純作業ならともかくこんなんさせんなよ…
30.はちまき名無しさん投稿日:2023年06月01日 01:50▼返信
ChatGPTに因数分解の問題だしたら展開しても元の式にならない答えを平気で返してきた
何回誤りを指摘しても同じ答えの繰り返し
ダメだこりゃ
31.はちまき名無しさん投稿日:2023年06月01日 01:51▼返信
AI利用者がみんな馬鹿に見える行為は止めよう
32.はちまき名無しさん投稿日:2023年06月01日 01:53▼返信
>>14
話題の正否をAIが担保していない
彼らがしているのは回答ではなくあくまで対話
今のところ正否を判断するのは質問した側の仕事というだけ
33.はちまき名無しさん投稿日:2023年06月01日 01:59▼返信
>>20
そうなんか
そっちならいけそうな気もしたけど
34.はちまき名無しさん投稿日:2023年06月01日 02:00▼返信
嘘ではない。
だた収集した情報から出した回答が結果間違っていただけ
回答した時点では真実なのだ
35.はちまき名無しさん投稿日:2023年06月01日 02:03▼返信
過去の判例を教え込んでいないAIに何を期待してんだ
育ててなきゃアホのままだぞw
36.はちまき名無しさん投稿日:2023年06月01日 02:06▼返信
>>29
それなら人件費削減出来たりでいいと思うがこういうのに使うべきじゃないわな
使うならそれこそ単純作業にAI導入して成功した実例何個も無いと
普通こんなんせんわ
37.はちまき名無しさん投稿日:2023年06月01日 02:08▼返信
こいついつも嘘ついてんな
38.はちまき名無しさん投稿日:2023年06月01日 02:08▼返信
普段使ってるけど、無差別に情報収集してるから、レポート作った後に精査しないと使い物にならないぞ
ドラフト版を作ると言う意味でならとっても役に立つけど
39.はちまき名無しさん投稿日:2023年06月01日 02:10▼返信
AIはある程度時短にはなるけど最後のステップまでショートカット出来る物ではないだろ。知識のある人ならデタラメが混じってるって気付くもんだけどな。
AIが危険なのはいかにもそれっぽい回答作ってくるから、知識の無い人が使う事で間違いに気付かず、デマを広めてしまう事だと思う
40.はちまき名無しさん投稿日:2023年06月01日 02:10▼返信
英語なら優秀とは何だったのか
41.はちまき名無しさん投稿日:2023年06月01日 02:12▼返信
AIの最悪の例をよりによって弁護士が作った
もうAI推奨の擁護、弁護出来んなこれはw
42.はちまき名無しさん投稿日:2023年06月01日 02:13▼返信
おいおい、嘘つくなよ
この弁護士はちゃんと「この事例は実際にあったものですか?」ってちゃんと問い合わせてたから

ChatGPTに。
43.はちまき名無しさん投稿日:2023年06月01日 02:13▼返信
CHATGPTって、デタラメだよね👎
44.はちまき名無しさん投稿日:2023年06月01日 02:13▼返信
>>25
だから?
45.はちまき名無しさん投稿日:2023年06月01日 02:13▼返信
ネットで集めた情報だから真偽は保証されないでしょ
確認作業しないこいつがアホなだけ
46.はちまき名無しさん投稿日:2023年06月01日 02:14▼返信
レポートをchatGPTで書いたやつー

震えて眠れ👊
47.はちまき名無しさん投稿日:2023年06月01日 02:15▼返信
>>39
フェイクニュースみたいなもんか
48.はちまき名無しさん投稿日:2023年06月01日 02:15▼返信
>>42
AIは判例データベースにアクセスできないから
ネット情報をソースにしてるだけ
手間を惜しんだ馬鹿ってだけやん
49.はちまき名無しさん投稿日:2023年06月01日 02:16▼返信
こんなもんを諸手を挙げて積極的に使おうとするアホな国があるらしいな
50.はちまき名無しさん投稿日:2023年06月01日 02:17▼返信
>>49
もしかして、政府ってバカなの?
51.はちまき名無しさん投稿日:2023年06月01日 02:17▼返信
軽く目を通すとかしてチェックもせんかったんか
52.はちまき名無しさん投稿日:2023年06月01日 02:18▼返信
AIはネットをググってるだけだから
ネットで偽情報をつかまされてら
そりゃこうなるだろうよ
53.はちまき名無しさん投稿日:2023年06月01日 02:20▼返信
デタラメだし、内容薄いよね…
54.はちまき名無しさん投稿日:2023年06月01日 02:20▼返信
この弁護士はベテランではあるが経歴が長いだけで無能だったって事か
55.はちまき名無しさん投稿日:2023年06月01日 02:20▼返信
使ったのが悪いんじゃなくて、その後確認しなかったのが悪い
56.はちまき名無しさん投稿日:2023年06月01日 02:22▼返信
???「ググればええねん!!」

みたいな感じ?
57.はちまき名無しさん投稿日:2023年06月01日 02:22▼返信
現在のChatGPTの弱点のひとつとされている「たまに事実ではない間違った回答をしてしまう」

たまに間違った回答をするんだから事実かどうかは確認しないやつが悪い
58.はちまき名無しさん投稿日:2023年06月01日 02:22▼返信
>>55
確認しないと駄目なの!?

使えねー
59.はちまき名無しさん投稿日:2023年06月01日 02:24▼返信
ソースが不確かならこうもなるわ
極限定的な専門分野の知識のみを与えたAIでもまだ信用おけるか怪しくなってきたね
60.はちまき名無しさん投稿日:2023年06月01日 02:24▼返信
>>58
AIはネットでググってるだけで
情報データベースがある訳じゃないから
真偽は確認するのは当然
61.はちまき名無しさん投稿日:2023年06月01日 02:25▼返信
知らないのに確認しようがないじゃん
62.はちまき名無しさん投稿日:2023年06月01日 02:25▼返信
>>56
そいつもAI以下かもな
ってかこの弁護士みたいに大失敗すると思う(反省はしなさそう)
63.はちまき名無しさん投稿日:2023年06月01日 02:29▼返信
AI「ネットで見た」
64.はちまき名無しさん投稿日:2023年06月01日 02:29▼返信
>>61
判決データベースで確認できる
弁護士がその手間を惜しんだのが原因
65.はちまき名無しさん投稿日:2023年06月01日 02:37▼返信
ちゃんと理解せずちょっと使って便利でいいじゃん!と飛びついたんだろうな
66.はちまき名無しさん投稿日:2023年06月01日 02:53▼返信
ChatGPTはそれらしい文章を返すシステムであって、正確さは保証してないでしょ。
定型文とか何かの例文みたいなを作るのは得意でも、正しい計算をしてくれるわけじゃない。
67.はちまき名無しさん投稿日:2023年06月01日 02:57▼返信
出てきたものを検証せずにそのまま出すのが相当のバカ。弁護士資格を剥奪しとけ。
68.はちまき名無しさん投稿日:2023年06月01日 03:10▼返信
AIがもっともらしく嘘ばっか言うのは公然なのにアホやな
69.はちまき名無しさん投稿日:2023年06月01日 03:11▼返信
おじいちゃんだったんだろ?
70.はちまき名無しさん投稿日:2023年06月01日 03:11▼返信
な?人間ってAI以下だろ?
71.はちまき名無しさん投稿日:2023年06月01日 03:23▼返信
GPT3.5だと平気で嘘をつくけど4の有料版だとネット接続して最新の情報引っ張ってこれるけどな
72.はちまき名無しさん投稿日:2023年06月01日 03:25▼返信
うわあ最悪の事態だ一体何人しぬん?
73.はちまき名無しさん投稿日:2023年06月01日 03:26▼返信
>>71
ネットの情報が100%正確な訳じゃないからなぁ
判例の場合だと判例データベースにアクセスしないで
ネットソースで探すと誤情報が紛れ込む
74.はちまき名無しさん投稿日:2023年06月01日 03:32▼返信
>>71
ネットの最新の情報が正しいと思ってそう
75.はちまき名無しさん投稿日:2023年06月01日 03:42▼返信
AIに真偽を判断する力は無いからね。イラストもそうだけど機械的にこなしているだけだから
FCドラクエ4のボスにザキを連発して学習してザラキを使ってた頃と変わらん
76.はちまき名無しさん投稿日:2023年06月01日 03:44▼返信
電話が発明されたときに荷物を送ろうとする人間が続出したという話を思い出した
77.はちまき名無しさん投稿日:2023年06月01日 03:51▼返信
つーかどんなにAIが進歩したとしても
基礎の書類作りにAI利用はしても
最後の確認は自分がしなくちゃいけないんじゃないの?
この人はそれを怠ったんだろ
78.はちまき名無しさん投稿日:2023年06月01日 03:53▼返信
AIが感情を持つレベルまでに発達しないと本当の意味でのAIとは言えない
79.はちまき名無しさん投稿日:2023年06月01日 04:09▼返信
マイクソが関わってるものを信用するとか正気か
80.はちまき名無しさん投稿日:2023年06月01日 04:13▼返信
良く気づいた!
81.はちまき名無しさん投稿日:2023年06月01日 04:26▼返信
AIで捏造制作する前にググればいいだけでは?
82.はちまき名無しさん投稿日:2023年06月01日 04:31▼返信
>>1
Chat GPTで近所のおすすめの店でも聞いてみ
電話番号付きで架空の店をリストアップしてくれるから
83.はちまき名無しさん投稿日:2023年06月01日 04:47▼返信
本当にChatGPTで調べたら出てくるのかな?捏造の言い訳にしてるだけな気がする。
まともな回答が得られるなら弁護士は不要になり、どっちにしても自己否定だが。
84.はちまき名無しさん投稿日:2023年06月01日 04:51▼返信
息を吐くようにウソをつくぶーちゃんってAIなん?
85.はちまき名無しさん投稿日:2023年06月01日 05:16▼返信
本当の判例だけ取り込むようにカスタムするしかない
86.はちまき名無しさん投稿日:2023年06月01日 05:22▼返信
ネット上にある無数の嘘をかき集めて
創作するのは得意なAIってだけなのを忘れてない
87.はちまき名無しさん投稿日:2023年06月01日 05:32▼返信
なんでそのまま引用するんだよ
せめて裏取ってからにしろや
88.はちまき名無しさん投稿日:2023年06月01日 05:35▼返信
日進月歩世に出てたったの1年でどんどん進化してるしこんなのもすぐどうにかなるだろうね
89.はちまき名無しさん投稿日:2023年06月01日 05:44▼返信
もっともらしく嘘を吐く集合知なんだから創作や文章構成以外に使うなよ
90.はちまき名無しさん投稿日:2023年06月01日 05:57▼返信
別に使ってもええと思うが
せめて出力された情報の裏取りする労力くらいは払えよ
91.はちまき名無しさん投稿日:2023年06月01日 06:29▼返信
判例検索システムくらい簡単に作れるよね
92.はちまき名無しさん投稿日:2023年06月01日 06:31▼返信
>>91
日本にはあるよ。
93.はちまき名無しさん投稿日:2023年06月01日 06:31▼返信
GPTは嘘つくくらい分かってから使え
94.はちまき名無しさん投稿日:2023年06月01日 06:32▼返信
チャットGP使って診療する医師とかも出てきそうだな
95.はちまき名無しさん投稿日:2023年06月01日 06:34▼返信
「信頼性が完全に検証されるまで」←その検証をすんのがお前の仕事だろボケ
96.はちまき名無しさん投稿日:2023年06月01日 06:35▼返信
ひろゆきが「うそはうそであると見抜ける人でないと(掲示板を使うのは)難しい」って言ってたけど、掲示板に限らずネット上には嘘や間違いが溢れていて、その中から事実を見つける能力がメディアリテラシー。

chatGPTもAIがメディアリテラシーを身に着けない限りは、検索エンジンに代替することは出来ないよ。
97.はちまき名無しさん投稿日:2023年06月01日 06:53▼返信
引用範囲を限定しないのが問題だな。
個人アカで勝つgpt4使わないで作成したんか?w
98.はちまき名無しさん投稿日:2023年06月01日 07:05▼返信
使う側がアホだったら何の意味もない
99.はちまき名無しさん投稿日:2023年06月01日 07:15▼返信
たらこAIを真に受けてしまったのか
100.はちまき名無しさん投稿日:2023年06月01日 07:17▼返信
嘘をつく機能をなくすのは不可能な気が
教科書で覚えさせられた日本の歴史すらあちこち嘘なんだし
後で「アレ嘘やったわw」とか散々やってる
101.はちまき名無しさん投稿日:2023年06月01日 07:18▼返信
>>71
最新の情報を嘘工作したらすぐに嘘を反映しそう
102.はちまき名無しさん投稿日:2023年06月01日 07:21▼返信
>>1
普通は「へぇ、そんな判例あるんだ」って思いながら調べるよね
なんで一切調べずにそのまま提出しているんだよ
103.はちまき名無しさん投稿日:2023年06月01日 07:23▼返信
>>44
お前を不幸にしてやろうか?って話だよ
104.はちまき名無しさん投稿日:2023年06月01日 07:26▼返信
>AIは息を吐くようにウソをつくからね・・・

ニシおじやチカおじはAIだった?
105.はちまき名無しさん投稿日:2023年06月01日 07:28▼返信
弁護士なのにネットに対する知能はスカスカなのか
106.はちまき名無しさん投稿日:2023年06月01日 07:35▼返信
AIすごいって騒がれてたのに、実際に色々とやらせてみるとミスだらけで、
やっぱりAIダメだわってなってきてるな。
107.はちまき名無しさん投稿日:2023年06月01日 07:45▼返信
この前もニュースで学生がchatGPTのことについて学んで、すぐ回答が出てきて凄い!って言ってたけど、平気でchatGPTの回答捏造してくるから、それが正しいのかどうかの判断が必要なのよね
108.はちまき名無しさん投稿日:2023年06月01日 07:51▼返信
前に検索エンジンオワタ!みたいな記事もあったけど
マジでこういう使い方してる馬鹿いるんだな
109.はちまき名無しさん投稿日:2023年06月01日 08:06▼返信
テキストベースAIなんだから正誤判定しないよ~
110.はちまき名無しさん投稿日:2023年06月01日 08:08▼返信
ナチュラルに嘘つくからなぁAIは
111.はちまき名無しさん投稿日:2023年06月01日 08:49▼返信
aiの嘘を見極めるために専門職はまだ必要
112.はちまき名無しさん投稿日:2023年06月01日 08:55▼返信
他国の判例とかも出力しそう
113.はちまき名無しさん投稿日:2023年06月01日 09:16▼返信
AIが判例データベースをハックして判例でっちあげるとこまでやったら面白いのに
114.はちまき名無しさん投稿日:2023年06月01日 09:18▼返信
文章の体裁を整えるには有用だけど、中身の情報は全部自分で考えなきゃダメよ
115.はちまき名無しさん投稿日:2023年06月01日 10:07▼返信
>>110
嘘はつかない
ネットのデマ情報がソースだったりするだけ
116.はちまき名無しさん投稿日:2023年06月01日 10:16▼返信
提出書類を自分でチェックしなかったこの弁護士がマヌケ
117.はちまき名無しさん投稿日:2023年06月01日 10:39▼返信
その界隈に詳しければ誰でもわかるレベルの嘘を
それっぽく語るからたちが悪いな~と思ってた
118.はちまき名無しさん投稿日:2023年06月01日 10:42▼返信
メタルギアはバンナムが制作していますとか平気で語りだすからなw
119.はちまき名無しさん投稿日:2023年06月01日 11:07▼返信
例えば人間の助手に調査を任せたとしてもミスする場合があるんだから、AIだろうが人間だろうがダブルチェックすべき。
AI関係なく不注意すぎる。
120.はちまき名無しさん投稿日:2023年06月01日 11:31▼返信
別に使えないわけではなくて使い方が間違ってるだけだろ
調べてもらった後に裏付け取ればよかっただけよ
121.はちまき名無しさん投稿日:2023年06月01日 12:22▼返信
調べさせるまではまぁいいとしてなんでちゃんとあってるかを調べないんだよって誰もが思うよ
122.はちまき名無しさん投稿日:2023年06月01日 12:40▼返信
「正しい文章」を書くだけで内容そのものの真偽性について特に何か検証している感じは全く無いからな
123.はちまき名無しさん投稿日:2023年06月01日 13:20▼返信
ダークソウルのラスボスはナイトメア・ドラゴンだぞ
AI先生からの回答だから間違いない
124.はちまき名無しさん投稿日:2023年06月01日 14:53▼返信
倫理観が欠片もないFallout4の戦前企業GAI社も自社ロボット(AI)の医療アドバイスは鵜呑みにしないで!!と
注意書きにデカデカと記す程度にはAIは嘘をつくと知られてるからね
ある意味では無茶苦茶に人間らしいよAI(人工知能)って・・・悪い意味で
125.はちまき名無しさん投稿日:2023年06月01日 15:08▼返信
検証してから出せよ
126.はちまき名無しさん投稿日:2023年06月01日 19:06▼返信
そりゃパッチワークして出してくる可能性すらあるのにチェックしない方が悪い
127.はちまき名無しさん投稿日:2023年06月01日 19:32▼返信
AIに探してもらうまでは良いけど、裏取りくらい自分でしろよw
弁護士が言う内容までAIでまかなったら、素人が自分でAI使って、弁護士不要になるねw
128.はちまき名無しさん投稿日:2023年06月02日 00:14▼返信
ちょっと調べたら利点と欠点ぐらいでてくるというのにピュアすぎんか?
129.はちまき名無しさん投稿日:2023年06月16日 11:41▼返信
西宮市を調べてみたら姫路城があると紹介されて感心した

直近のコメント数ランキング

traq