ケニア:エチオピアの民族紛争激化をめぐりメタを提訴

  1. ホーム
  2. ニュースリリース
  3. 国際事務局発表ニュース
  4. ケニア:エチオピアの民族紛争激化をめぐりメタを提訴
2022年12月28日
[国際事務局発表ニュース]
国・地域:ケニア
トピック:企業の社会的責任

フェイスブックのアルゴリズム(コンピューターの情報処理の方法や手順)が憎悪を広め民族紛争を煽ったとして、フェイスブックを運営するメタ社がケニアの高等裁判所に提訴された。メタ社は、フェイスブックのアルゴリズムが憎悪や紛争を扇動することがないよう、そのビジネス手法を改善する必要がある。

原告側は、憎悪にあふれた暴力的なコンテンツを優先的に推奨するアルゴリズムが、エチオピアの民族間の暴力や殺害を引き起こす発言を助長したと主張し、メタ社に対し暴力的なコンテンツの推奨停止と、16億米ドル(約2000億円)の被害者向け基金の創設を求めている。

提訴に際し、法律事務所の代表者が原告側の代理人を務め、非営利団体が提訴を支援している。また、アムネスティを含む7団体が、提訴の利害関係者として参加している。

暴力的な書き込みが拡散しやすい背景には、利潤を追求するメタ社の姿勢がある。同社のアルゴリズムは、人を引き付け離さないよう設計されている。今回の訴訟は、利用者にとって有害なビジネスモデルを採用するメタ社の責任を追求する上で大きな意味がある。

アフリカ地域を担当するアムネスティ職員の一人も、フェイスブックの投稿がきっかけで標的になった。

原告団の1人、人権活動家のフィッセハ・テクレさんは、アムネスティの法律顧問だ。テクレさんはこう話す。

「エチオピアの人びとは、ニュースと情報をソーシャルメディアから得ているが、フェイスブック上には憎悪と偽情報があふれ、人権擁護活動家も脅迫や辛らつなコメントの対象になっている。フェイスブック上の人間関係が、人権活動を阻害し危害を及ぼすことを私自身も体験した。今回の裁判でこの力の不均衡が正されることを期待したい」

テクレさんは現在ケニアに住んでいる。誹謗中傷を受けて身の危険を覚え、エチオピアにいる家族に会いに行くことができない。

致命的な誤り

原告団の1人エイブラム・ミアレグさんは、大学教授だった父親が犠牲になった。昨年11月、フェイスブックで憎悪や暴力を扇動する投稿を受け、数週間後に殺害されたのだ。原告によると、問題の投稿が削除されたのは、父親の殺害から8日後だった。家族が最初にメタ社に削除を要求してから3週間以上も経っていた。

ミアレグさん自身も身の危険を感じ、米国への亡命を希望している。首都アジスアベバに逃れた母親は、夫の殺害を目撃してから心に深い傷を負い、毎晩、睡眠中に叫び声をあげているという。

ミアレグさんやテクレさんが体験した悲劇は、珍しいことではない。メタ社は、フェイスブックでグループ機能にユーザーとのエンゲージメント(いいね、コメント、シェアなどの反応)にもとづくアルゴリズム機能を採用し、ニュースフィード(友人・知人の投稿やコメント:最初に表示される)、ランキング、レコメンデーション(コンテンツのお勧め)などを表示させている。

メタ社の収益の柱はユーザーの関心に対応した広告配信であり、フェイスブックの利用者の滞在時間が長いほど、メタ社の広告収入増につながる。

暴力、憎悪、差別を煽るコンテンツの表示は、利用者をフェイスブックに留めておく上で効果的だ。従って、この種のコンテンツの促進と拡大は、ユーザーの行動履歴に基づくフェイスブックのビジネスモデルに欠かせない。

メタ社が2012年に実施した内部調査によると、同社はこのアルゴリズムが社会に深刻な問題を引き起こす可能性があることを認識していた。2016年の調査では、「レコメンデーションが過激な発言を助長している」と認めていた。

アムネスティによるミャンマーでの調査で、メタ社のアルゴリズムが、ロヒンギャの人びとへの暴力や憎悪を扇動する書き込みを煽り助長し、大規模な暴力が起きる危険を高めていたことが明らかになっている。

メタ社はいずれの国でも、アルゴリズムが有害なコンテンツの拡散を煽り、社会に深刻な影響をもたらすことを知っていたか、知ることができたはずだ。

同社は、憎悪の拡散を抑えることができないことを自ら示した。各国は、テクノロジー企業におけるユーザーの行動履歴に基づくビジネスモデルを規制する法律を導入すべきだ。

命取りのダブルスタンダード

今回の原告側は、投稿内容に過激な中傷や扇動が拡大する状況でのメタ社の対応は、アフリカと他地域、特に北米とは対応が異なると申し立てている。メタ社は、扇動的なコンテンツを素早く削除する際、アルゴリズムに特殊な調整を施すが、原告側は、他国で行われているこの対応がエチオピアでは行われず、有害なコンテンツが拡散したと主張する。

メタ社の内部告発者のフランシス・ハウゲンさんが公開した内部文書によると、巨大企業でありながら、社内に現地語を話すコンテンツ・モデレーター(不適切なコンテンツを監視する業務に携わる人)が不足している。同社の監視委員会も、「メタは、英語以外の言語で不適切なコンテンツを監視・削除する資源に十分投資してこなかった」という懸念を示していた。

メタ社がいわゆる途上国で、コンテンツ・モデレーションに十分な投資をしなかったことが、憎悪や暴力を広め、社会から取り残され迫害されている人びとに、とりわけ深刻な影響を与えている。

アムネスティ国際ニュース
2022年12月14日

英語のニュースを読む

関連ニュースリリース