AI生成された子供の性虐待イメージへの新たな法律の制定 ー イギリス
AI生成された子供の性虐待イメージへの新たな法律の制定 ー イギリス
2025年2月1日づけで、The Home Office (ホームオフィス/イギリス内務省)の女性内務大臣Yvet Cooper(イヴェット・クーパー)さんが、AI(Artificial Intelligence/人工知能)によって生成された子供の性的虐待イメージの脅威をタックルする4つの新しい法律を制定することをアナウンスしました。
国営放送BBCの記事はここから。
子供に該当するのは、18歳までの子供で、男女どちらもが該当します。
日本の子供や女性に対する性犯罪に対する法律は、イギリスや他のヨーロッパと比べて信じられないくらい緩いか存在せず、イギリスでは違法なことの多くが日本では合法なため、犯罪率だけでは、安全性の比較はできないことは留意しておく必要があります。
また、日本では往々にして、法律が存在してもそれを監視・監査・調査する公的機関がなかったり、公的機関があっても、その公的機関の役員が監査される対象の企業や業界と深くつながっていたりして、機能していない場合もあります。
法律を破ったときの明確な罰則がなかったり、破っても非常に軽い罰則だったり、その罰則を施行する仕組が不明確だったりする傾向が強いことは知っておく必要があります。
イギリスやヨーロッパでは、基本は、法律が制定・改変される場合には、法律が守られているかどうかを監視する公的機関、法律が守られていないときの罰則、どの機関が罰則をどのようにどういった期間で施行するか、訴える場合の仕組等が明確に定められています。
そうでないと、法律をもつ意味がありません。
法律があるのに、誰もまともに監視しないし、違反しても罰則はないか、あっても非常に軽く、施行されない可能性も高いと、法律違反を行う企業や人々は増え、誰にとっても危険な社会となります。
もう一つの日本の特徴は、誰でもが同等の権利をもっていると憲法でも定められているにも関わらず、自分の権利を知ることを阻害され、正当な権利を正当に実行しようとすると、社会的なプレッシャーを受け、社会から疎外されることの多い現状です。
たとえば、残業時間の上限が法律で規定されていても、それを破っている企業はたくさんあるにも関わらず、多くは逃げ切っていることからも明らかでしょう。
また、日本社会では、性加害にあった被害者に「恥」を押し付けて沈黙させますが、イギリス・ヨーロッパでは、性加害を行ったひとが100パーセント悪い(これは加害者が選択したことで、加害をしない選択もできたし、そうするべきだった →加害の責任を法律に沿ってきちんと取らせるべき)、というのは浸透しているし、被害者が犯罪を正式に訴えることを助ける機関も多く存在し、普通の人々も、加害者を訴える被害者を、勇気ある行動をとった人として応援してくれます。
「日本は安全な国」というのが、完全に偽りの神話であることは、普通にヨーロッパで暮らすとよく分かります。
そもそも、痴漢が毎日どこでも起こっている社会が安全なわけがありません。
「日本は(子供や女性に性加害を行う人々にとって、加害を行ってもほぼ責任をとらなくて済む)安全な国」というほうが正確な気がします。
ここには、子供や女性の社会的な地位やひととしての価値が、(大人の)男性に比べて著しく劣っていると見なされていることが、社会に浸透しきっていることが、法律にもあらわれているといえるのではないでしょうか。
これは、明らかに言語化されるわけではなく、家庭の中で妻・母が奴隷のように顎でつかわれたり、姉妹は遠くの大学への進学は許されないけれど、兄弟は能力に関わらず教育にお金をつぎこむ、広告やテレビドラマで女性はいつも頭が悪く優秀な男性に助けてもらわないと何もできない等、さまざまな場所から吸収します。
いったん、ヨーロッパで誰もが対等で同じ権利と自由がある、という状況に慣れると、日本の極端な男性至上主義がみえてきます。
これは多くの女性も内在化していて、女性もこの構造を保持する役割を果たしています。
「女性は(男性に)従属・隷属する存在で、男性は権威を独占的にもつ存在」と疑問なく受け入れられている社会だと、権威には、歯止め・抑制がなく、とても簡単に権力濫用が起こり、女性や子供に虐待がおこる文化をつくりだします。
男性は何をやっても逃げ切れると思い、実際に逃げ切れます。
ここでいう男性とは、大きなグループとしての男性であり、このグループに入らない個人男性もいれば、グループの中にいても他の男性とは違った行動を取る少数派、女性でもこの男性グループの下位に入りこんで同じように権威をふりまわし自分より立場の弱い女性や子供、若い男性等を不当に悪く扱う少数派の人々もいるでしょう。
私たち一人一人がこの仕組・構造に気づき、変えていく必要があります。
テクノロジーの進化は新たな病気の治療方法の発見等、喜ばしいことも多くもたらしますが、新たな犯罪もあらわれます。
テクノロジーに追いつくのではなく、テクノロジーが悪用される前に、その根っこを止めようというのが、今回の法律の提案です。
子供の性的虐待の素材(child sexual abuse material(CSAM))をつくるようにデザインされたAIツールを所有、つくる、配布することは違法となります。最高5年間の禁固が課せられる予定です。
このCSAMには、部分的、或いは完全にコンピューター生成されたもので、実際のイメージ(実在する人の写真等)をヌードにするソフトウェアや、子供の顔写真を別の人のイメージの上におきかえる等も含みます。
また、子供に性的虐待を行うマニュアルを持っていることも違法となり、最高3年の禁固となる予定です。
子供の性虐待の映像は、外国(The UKの国外)で生成されることも多いため、the Border Force(ボーダー・フォース/国境警備)が、イギリスに入国する人々に対して、疑いがあると判断すれば、電子機器(PCや携帯電話等)をチェックする権利も与えられます。
The National Crime Agency(NCA)によると、オンライン上で子供に対しての脅威を与えたということで逮捕されたのは、毎月800件ほどで、The UK全体(イギリス、ウェールズ、スコットランド、北アイルランドー合計人口は日本人口の約半分)では、約84万人がオンライン・オフラインで子供に性的な危険を及ぼす可能性があると見られています。
これは、大人人口の約1.6パーセントです。
Paedphilies(ペドフィリア/小児性愛好者)が子供の性虐待のイメージや内容をシェアしたり、どのように子供をグルームするかをアドヴァイスするようなウェブサイトも違法となります。
法律を定めるだけでなく、それがきちんと施行されていることは、とても重要です。
日本では子供の性的なイメージの所持は、漫画等の二次元だったり、実在の子供でなければ違法ではないと思うのですが、イギリスでも、多くのヨーロッパの国々でも違法です。
実在しない子供のイメージや、実在しないボディーに実在の顔が合成されたイメージは誰も傷つけないといった詭弁をつかう人もいるかもしれませんが、実際に、合成されたイメージをもとに、そのイメージを流されたくないなら金を払え等の脅しを行う犯罪も起きています。
合成されたイメージは、多くがとてもリアルにみえるもので、合成されたイメージを拡散されて、実像ではなくても、その合成されたイメージが原因で学校へ行けなくなったり、外出できなくなった子供たちもいます。
ときには子供たちの個人情報(名前や携帯番号など)がある場合もあり、どんな子供も受け取るべきではない、ひどい性的なメッセージが送られてきたりして、被害が大きくなる場合もあります。
普通に考えれば、子供を性的なオブジェクトとして、消費・搾取することが間違っていることは明らかです。
子供は性的なことをしたいという欲望をもっていて、性的なことをしたいと判断できる能力をもっていると間違った歪んだ認識をもっている人々は、子供への性虐待を再犯する確率がとても高いそうです。
この歪んだ認識は、育っていくなかで、社会から学ぶ・自然と吸収していることであることは覚えておく必要があります。
日本のようなひどいレベルの痴漢行為は、少数の国でしか起こりません。
日本では、長年の間、痴漢行為は社会の中でNomarlise(ノーマライズ/当然・自然に起こることと)され、実際に加害者が社会からかばわれることが多く、被害者が責められる構図ができあがっています。そうなると、加害者はほぼ確実に責任を取ることがないと確信できるので、犯行を止めるものはないでしょう。
また、子供や女性も、それを内在化し、ひどい性犯罪なのに、それを性犯罪だと認識することすら難しくなるかもしれません。
親にいえば被害者である自分のせいだといわれ、警察からは相手にもされないと、無力感に陥るしかないかもしれません。
セクシャル・ヴァイオレンス(痴漢やセクシャル・ハラスメント、子供への性虐待ー着衣のままでも性的なことを想起させるようなポーズや表情をさせる等も含む)に、ヒエラルキーをつけて、レイプじゃないのだからたいしたことない、という詭弁にもっていくのは、加害者を助けて、加害者に加担していることになります。
どんなセクシャル・ヴァイオレンスも起こるべきではなく、すべての加害はストップされなければなりません。
日本だけでなく、多くの経済が発展した国々では、自殺率は男性のほうが高い傾向があるものの、女性がうつ病などの精神疾患をかかえる率はとても高く、社会の不正義に苦しんでいる場合に、女性は自分を責めざるをえない状況においやられることを指摘している専門家もいます。
イギリスだと、子供に性的な興味をもってしまうことに悩んでいたら、それを相談できるチャリティーがあります。
The Lucy Faithfull Foundation
匿名での相談が可能です。無料でダウンロードできるリソースもあります。
加害してしまう前、加害してしまうかもと不安になったとき、相談できる場所があることは大切です。
彼ら・彼女らはモンスターのようなほかの世間の人々とは大きく違うわけではありません。
普通に私たち社会の一員です。
彼らが加害をしなくてすむよう、サポートすることは大切です。
また、子供に性的な興味を持つことを奨励したり、当たり前のようにする社会にしないことはとても重要です。
子供に性的な興味を持つことを奨励する環境というのは、子供の性的虐待のイメージ(実在する子供のイメージ・合成された子供のイメージ・大人が子供のふりをしたイメージや映像)が当たり前のようにオンラインや紙面に存在する社会です。
また、それらを簡単に売買できる環境です。
上記のThe Lucy Faithfull Foundationでは、近年、AIを使用した子供の性的なイメージの作成・所有について、混乱した相談が寄せられるそうです。
たとえば、女性から「自分のパートナーがAIで生成された子供の性的なイメージをダウンロードしているのを見たが、実在しないから犯罪じゃないのだろうか、それとも犯罪なのだろうか?」といったものですが、これは犯罪です。
また、多くの人々が子供の性的虐待イメージを生成するのは、それを買う人々がいて、お金儲けになるからです。
なぜ、子供の性的虐待イメージや映像をみたいという残酷な気持ちになる人々がいるのか、よく考えることは社会としても大切です。
子供の性的虐待イメージや映像を買う人々が全くいなくなれば、イメージや映像の数は大きく減るでしょう。
IWF(Internet Watch Foundation)では、AI生成された子供たちの性虐待イメージが生成されれば生成されるほど、普通のOpen Webでも子供の性虐待イメージが蔓延すると警告しています。
IWFの最新のデータでは、AI生成されたCSAMは、2024年には、2023年から380パーセント増加したそうです。(2023年には51件、2024年には245件ーどの件も数千ものイメージを含んでいる)
IWF(Internet Watch Foundation)の暫定最高責任者のDerek Ray-Hill(デレック・レイヒル)さんは、「AIコンテンツが(広く手軽に)入手できることは、さらに子供への性的加害を加速します。これは、加害者をさらに大胆な行動に走らせ、加害を励ますことになります。これは、実在する子供たちをさらに危険な状態へと追いやります。今回の法律の設定・変更については、AIを使用した子供への性加害を防ぐことにはまだまだやるべきことがあるとはいうものの、重要なスタートポイントだとして歓迎します。」
【参考】
https://www.thegreencatalyst.com/blogs/post/20241031
漫画やアニメだろうと、AIで合成されたものだろうと、子供たちを性的なオブジェクトとしてみたり、大人の性的興奮をよびおこすために(子供たちを)使うことを(社会の基準と照らし合わせて)正当だとみなすことは、完全に受け入れられないことです。
より多くの子供の性的虐待イメージを作りだすことを奨励したり助けることによって、子供の性的虐待を減らせるわけではありません。
実際に存在する子供だろうと、そうでなかろうと、子供の性的虐待イメージや動画があること自体を(社会として)許してはいけません