
アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始
記事によると
・アップルは現地時間8月5日、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入すると発表した
・iCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという
・Appleは自社の新しい児童性的虐待素材(CSAM)検出技術である「NeuralHash(ニューラルマッチ)」を使用
・個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという
・違法な写真であると判断された場合、法執行機関にアラートが出される
以下、全文を読む
AppleがiPhoneとiCloud上の児童搾取画像の検閲を開始とFTが報道。neuralMatchと呼ばれるシステムはまず人間のレビュアーに警告を送信、そちらが警察に通報する。National Center for Missing & Exploited Childrenにより提供された20万の画像で学習。画像はhash値で既知の画像DBの値と比較される。報道 https://t.co/jvMz2zuPA6
— 高梨陣平 (@jingbay) August 5, 2021
によればiCloudに投稿された画像は全て‘safety voucher,’を与えられ幾らかの画像が問題有りと見做されると、それら全てが復号され、実際に違法性が確認されれば、即刻通報が行われる。John Hopkins大学の暗号研究科Matthew Green はこれらの仕組みが独裁政治の下では何に使われるか考えてみようと
— 高梨陣平 (@jingbay) August 5, 2021
不安を吐露。例えAppleがこれらの誤用を防ごうとしてもまだいくらでも不安は残る。これらのシステムは問題有りと見做されるメディアのハッシュで成り立つ。消費者であるあなたはそれをレビューできないとした。AppleはこれまでもiCloud上の画像を検閲してきた。しかし今回は中央政権にアクセスを認める
— 高梨陣平 (@jingbay) August 5, 2021
ことが大きく異なる。また児童ポルノ以外の犯罪へとシステムを対応、拡張させることも簡単だ。Appleはシステムについて今週、アカデミアに公開しており、今週中にも公表される予定だ。Appleはこれまでプライバシ保護に力点を起きFBIとの対立で有名となった。AppleはFTにコメントを返さず。
— 高梨陣平 (@jingbay) August 5, 2021
この記事への反応
・自分の子供の画像も検出されて児童ポルノ画像と誤認されてしまう可能性もあるな。
ただ、それ以前に勝手に検出されるのが恐ろしい気がするな。
iPhon買う人が減ったりして。
・子供盾にしたただの検閲で草も枯れる
・必要なことかも知れないが、気持ちが悪い。
・うーん?仕方ないとはあまりいい気はしないなー。
自分の子供の水遊び写真もうっかり、、、
・勇気ある取り組み。社会的に議論を呼びそう。
・もうえちえちな物保存できないやん
・児童ポルノを擁護するつもりは微塵もないが、プライバシーを監視されるのは気に入らんな。
・2次元でも3次元でも引っかかる感じになるのかな
・iCloudの利用率が下がったら面白いかも
・精度がどんなもんか気になるね
自分の子供とかでも説明しなきゃいけない手間とか増えたりするんかな?
・アジア系の成人が子供扱いされる事故が起きる気がする。黒人をゴリラに分類した事件あったよね。
・アップル曰く誤検知の可能性は1兆分の1ということだが、機械学習だと実データでは精度が落ちるなんてよくあることだし、冤罪とか大丈夫なんだろうか
・近年のAppleはプライバシー保護に力を入れていて、それが良いと思っていたのに残念(´・_・`)

- カテゴリ

はちま起稿
ゲーム全般カテゴリ 2 位
過去記事の閲覧ができます

1. はちまき名無しさん
任天堂 7974その他製品
リアルタイム株価 2021年8月6日15:00
年初来安値
現在値 52,410円
前日比 -4,080円(-7.22%)
バンナムH+6.72% スクエニH+9.95% コナミHD+7.41%