記事によると

・昨年に大ヒットした、話しかけて操作するAmazonの人工知能スピーカー『エコー(Echo)』に、思わぬハプニングが起こっている

・発端はアメリカのダラスに住む6歳の女の子がアマゾンエコーに「ドールハウスとクッキーを買って」とお願いしたこと。数日後、約160ドル相当のドールハウスと2kgにもなる大量のクッキーが家へ配達された。

・この事件を米メディアが朝のニュースで取り上げた。このニュースを伝える際、男性アナウンサーは「アレクサ、私にドールハウスを注文して。」と話した。するとその結果、TVの音声を主人からの注文と勘違いしたエコーがドールハウスをアマゾンに注文し始めたという

・この誤認識による発注は大量に殺到し、後日、アマゾンは公式サイトで今回のトラブルで誤発注されたドールハウスはキャンセル、または払い戻しができると明らかにした。



誤発注されることになったニュース報道



この話題への反応


こういうのがあるからAIは怖いよね…

あまりにも簡単に購入できるとこうなるのはわかりきったことだけど、あえてやったんだろうね

いいぞ、もっと誤発注しろ。音声認識とAIを舐めるな。

つまり、Alexaもコルタナやgoogleみたいにユーザーの声を「覚える」ようにすればいいわけだな

音声認識の未来なんてこんなもんだよw

嫌いな奴の家の前で、「寿司100人前」って叫べば...

いやこれ、技術的にはすごいのよ。登録されてない家族以外の声を認識して、文脈理解して、実行したんだから。ちょっと考える事が出来ないだけで。

悲劇が悲劇を生んでて草

エコーさんはこの子のお願いを聞いてあげただけなのに…










これはひどい

ネット注文はスマホかPCでちゃんと商品確認してから買いましょう(´・ω・`)





キングダム ハーツ HD 2.8 ファイナルチャプタープロローグ - PS4キングダム ハーツ HD 2.8 ファイナルチャプタープロローグ - PS4
PlayStation 4

スクウェア・エニックス
売り上げランキング : 1

Amazonで詳しく見る