アップル、iPhoneで「児童性的虐待」の写真を摘発する…プライバシーの侵害論議に(画像提供:wowkorea)
アップル、iPhoneで「児童性的虐待」の写真を摘発する…プライバシーの侵害論議に(画像提供:wowkorea)
アップルがiPhoneに児童に対する性的虐待を監視することができる機能を搭載すると明らかにし、議論が起きている。児童を極悪な犯罪から保護するという意図だが、一種の「検閲」機能でプライバシーの侵害だとの指摘も出ている。

5日(現地時間)フィナンシャル・タイムズ(FT)によると、アップルは、来月、米国ユーザーに提供されるアップデートを介して、児童の性的虐待画像を識別することができるソフトウェア(SW)を導入する計画である。

このSWの名前は「ニューラルマッチ」で、来月発売されるiPhoneのオペレーティングシステム(OS)の最新バージョンであるiOS15の新機能として追加される。人工知能(AI)機能を使用して、iPhoneに保存された画像の中から児童に対する性的虐待の疑いのある画像を識別し、検討チームで違法性が摘発されれば法執行機関に連絡がいく方式である。この機能は、画像にのみ適用され、動画はスキャンできない。

アップル側は「時間をかけて進化し拡張する新しい児童保護システムの一部」と説明した。アップルは今週初め、ビデオ会議を使用してこのプログラムを一部のアメリカの学者たちに詳細に説明したとFTは伝えた。

ただし、新しい機能がプライバシーの侵害の可能性があるとの批判も提起されている。アップルは、プライバシーを最優先の価値に掲げ、競合他社との差別化されたブランドイメージを構築している。

アップル側はAIと暗号化技術を使用して画像をスキャンして、違法イメージのデータベースと一致するかどうかを判読するものだとし、私生活のスクリーニングとは異なるという立場だ。
Copyrights(C) Edaily wowkorea.jp 88