名称未設定 1




アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始

1628232275901


記事によると



アップルは現地時間8月5日、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入すると発表した

iCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという

・Appleは自社の新しい児童性的虐待素材(CSAM)検出技術である「NeuralHash(ニューラルマッチ)」を使用

個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという

・違法な写真であると判断された場合、法執行機関にアラートが出される

以下、全文を読む












この記事への反応



自分の子供の画像も検出されて児童ポルノ画像と誤認されてしまう可能性もあるな。
ただ、それ以前に勝手に検出されるのが恐ろしい気がするな。
iPhon買う人が減ったりして。


子供盾にしたただの検閲で草も枯れる

必要なことかも知れないが、気持ちが悪い。

うーん?仕方ないとはあまりいい気はしないなー。
自分の子供の水遊び写真もうっかり、、、


勇気ある取り組み。社会的に議論を呼びそう。

もうえちえちな物保存できないやん

児童ポルノを擁護するつもりは微塵もないが、プライバシーを監視されるのは気に入らんな。

2次元でも3次元でも引っかかる感じになるのかな

iCloudの利用率が下がったら面白いかも

精度がどんなもんか気になるね
自分の子供とかでも説明しなきゃいけない手間とか増えたりするんかな?


アジア系の成人が子供扱いされる事故が起きる気がする。黒人をゴリラに分類した事件あったよね。

アップル曰く誤検知の可能性は1兆分の1ということだが、機械学習だと実データでは精度が落ちるなんてよくあることだし、冤罪とか大丈夫なんだろうか

近年のAppleはプライバシー保護に力を入れていて、それが良いと思っていたのに残念(´・_・`)








こういう取り組みが大切なのはわかるけど、ちょっとやりすぎじゃね?



B09B76TVFM
秋風緋色(著), ブロッコリーライオン(著), sime(その他)(2021-08-06T00:00:00.000Z)
レビューはありません





B09BJP2K6H
河添太一(著)(2021-08-11T00:00:00.000Z)
レビューはありません