Appleは、自社のiCloudプラットフォームでの児童性的虐待素材(CSAM)の取り締まりを十分に行わなかったとして訴訟に直面しています。訴訟を起こした原告は、虐待の被害者であり、Appleが2021年に導入した有害コンテンツを検出するシステムを放棄したと主張しています。彼らは120億ドル(約1,600億円)以上の賠償金を求めています。
訴訟の詳細
この訴訟は、27歳の女性が起こしたもので、Appleが何もしなかったために、彼女の虐待の画像が広く拡散されたと訴えています。**The New York Times**によると、原告は、彼女の加害者がAppleのiCloudサービスに画像をアップロードしたと主張しています。
彼女はまた、彼女と母親が頻繁に法執行機関から通知を受け取っていたことを述べています。それは、違法画像を所持しているとして起訴された個人に関するものでした。「それがこんなに多く存在しているとは信じられなかった。止まることがなかった」と彼女は語っています。
この訴訟は、AppleがiCloud上でのCSAM検出システムを放棄した決定に責任を求め、最大2,680人の被害者を代表して賠償金を求めています。アメリカの法律では、児童性的虐待の生存者は最低15万ドル(約2,000万円)の賠償を受ける権利があり、もしAppleが責任を問われた場合、総額は120億ドル(約1,600億円)を超える可能性があります。
問題の背景
この訴訟は、Appleが2022年にiCloud上でCSAMをスキャンするシステムを放棄した決定に起因しています。このシステムは、2021年に導入され、デバイス内でハッシュ処理を使用して有害コンテンツを識別するものでした。しかし、Appleは、プライバシー問題や悪用のリスクを理由に、この取り組みを中止しました。
2022年9月、Appleはその理由として、意図しない結果を招くリスクを挙げていました。この訴訟は、Appleが強調してきたプライバシー保護に関する評価を再び注目させる結果となりました。
進行中の法的課題
この訴訟は、テクノロジー企業がユーザー生成コンテンツをどのように扱うかに関する広範な議論の一部です。ノースカロライナ州の事例では、Appleは9歳の被害者に関する訴訟を棄却しようとしています。この訴訟では、AppleがiCloudを通じて他人がCSAMを拡散することを可能にしたとされています。Appleは、コミュニケーションの公正法第230条により、自社がユーザーがアップロードしたコンテンツに対して責任を負わないと主張しています。
また、Appleは、iCloudが物理的な製品(例えば欠陥タイヤ)と同様に扱われるべきではないとし、製品責任を問うべきではないと主張しています。Appleの広報担当者フレッド・サインズ氏は、「児童性的虐待素材は忌まわしいものであり、私たちは子供たちを危険にさらす者たちと戦うことを約束しています。すべてのユーザーのセキュリティとプライバシーを侵害することなく、これらの犯罪と戦うために緊急かつ積極的にイノベーションを進めています」と述べています。
テクノロジー企業への厳しい視線
Appleは、CSAMの拡散に対する責任を問われている主要なテクノロジー企業の一つに過ぎません。今年初め、ReadWriteは、Meta、TikTok、Snap、Discord、XのCEOがオンライン上での児童搾取に対処するために米国上院の公聴会に出席したことを報じています。2023年7月、上院はSHIELD法案を通過させ、私的で性的な画像や裸の画像の配布を違法化しました。
オーストラリアのニューサウスウェールズ大学の犯罪学教授であるマイケル・サルター氏はX上で次のように書いています。「アメリカやEUのような主要な法域での法改正がない限り、市民訴訟はテクノロジー企業を責任に問う数少ない方法の一つです。」