ミャンマー(ビルマ):フェイスブック、ロヒンギャ迫害を助長 問われる責任

  1. ホーム
  2. ニュースリリース
  3. 国際事務局発表ニュース
  4. ミャンマー(ビルマ):フェイスブック、ロヒンギャ迫害を助長 問われる責任
2022年10月21日
[国際事務局発表ニュース]
国・地域:ミャンマー(ビルマ)
トピック:企業の社会的責任

フェイスブックを運営するメタ社は、危険なアルゴリズムと強引な利益の追求で、2017年のミャンマー国軍によるロヒンギャの人びとへの残虐行為に実質的に加担していた。アムネスティの調査でわかった。

メタ社は、フェイスブックのアルゴリズムが、反ロヒンギャの投稿の拡散を加速させていることを認識していた、あるいは認識する立場にあったにもかかわらず、何の対応も取らなかった。その結果、ロヒンギャの人びとに対する憎悪の火に油をそそぎ、ロヒンギャへの暴力が拡大する結果になった。

ロヒンギャは、ミャンマー北部のラカイン州に住むイスラム教徒が大半を占める少数民族で、数十年にわたり、国主導の差別、迫害、弾圧などアパルトヘイトにあたる扱いを受けてきた。2017年8月には、治安部隊による殺人、強かん、家屋の焼き討ちなど大規模な掃討作戦で、70万人以上のロヒンギャの人びとがラカイン州を追われ、バングラデシュに逃れた。

反ロヒンギャのエコーチェンバー

メタ社はフェイスブックでエンゲージメント(いいね、コメント、シェアなどの反応)に基づくアルゴリズムを採用して、ニュースフィード(友人・知人の投稿やコメント:最初に表示される)、ランキング、レコメンデーション(コンテンツのお勧め)などを表示させている。

メタ社の収益の柱はユーザーの関心に対応した広告配信であり、フェイスブックの広告収入はユーザーの滞在時間に左右される。憎悪を擁護し、暴力、敵意、差別をあおるような扇動的なコンテンツは滞在時間増につながりやすいため、この種のコンテンツの促進と拡大は収益増に寄与する。

2017年の掃討作戦以前から、フェイスブックは、反ロヒンギャ派のエコーチェンバーと化していた。エコーチェンバーとは、自分と似たような考えや意見ばかりが集まり常に目にすることで、意見の増幅・強化が起きることを指す。

ニュースフィードは、国軍や急進的仏教民族主義グループと関係する人たちによるイスラム教徒への憎悪の書き込みで溢れた。「イスラム教徒による乗っ取りが迫る」「ロヒンギャは侵略者だ」などという書き込みだった。

1,000回以上シェアされた投稿には、イスラム教徒の人権擁護者の写真が「国家の反逆者」として指弾されていた。

投稿されたコメントには、「奴はイスラム教徒だ。イスラム教徒は犬であり、射殺されるべきだ」、生かしておくな。奴と同じ民族をすべて排除しろ。時間は刻々と過ぎている」などという脅しが入った民族差別的なメッセージもあった。

差別と暴力を扇動する投稿は、国軍や文民の指導者の最上層部からもあった。昨年2月のクーデターで政権を掌握したミンアウンライン国軍総司令官は、2017年に自身のフェイスブックに「我が国には、ロヒンギャ民族はまったくいないと宣言する」と投稿した。

今年7月、国際司法裁判所は、ミャンマーによるロヒンギャの扱いに関しジェノサイド条約に基づきミャンマー政府を提訴する管轄権を、同裁判所が有すると裁定した。アムネスティは、政府の責任追及に向けたこの一歩を歓迎し、ロヒンギャに対する犯罪に関与した国軍幹部が裁かれることを引き続き求めていく。

2014年、メタ社は市民社会主導の反ヘイト運動を支援するために、差別や暴力をあおるようなコンテンツに対してフェイスブックユーザーが投稿できるステッカーパックを公開した。ステッカーには、「シェアする前に考えよう」「暴力の引き金になるな」などのメッセージが書かれている。

しかし、このステッカーは意図しない結果をもたらした。フェイスブックのアルゴリズムが、ステッカーの利用は投稿を楽しんでいる印だと解釈し、ステッカーのある投稿を推奨するようになったのだ。憎悪の投稿は減るどころか、ステッカーによって逆に増えてしまった。

国連のミャンマーに関する国際事実調査団は、「フェイスブックが事実上のインターネットである国での残虐行為に、ソーシャルメディアが果たす役割は大きい」と結論づけた。

フェイスブックの無策

国際基準に基づく責任があるにもかかわらず、メタ社はミャンマーで事業を展開する上で人権への適切な調査と評価の不作為を繰り返した。

2012年のメタ社の内部調査で、同社はアルゴリズムが重大な危害を社会に与える可能性があることを認識していたことが明らかになった。2016年には、同社はレコメンデーションの仕組みが過激主義の問題を大きくしていることを認めた。

2012年から2017年にかけて同社は、現地の複数の市民団体から過激な暴力に加担するおそれがあるとの警告を受けた。2014年には、マンダレーでの民族間の衝突の引き金になったとして当局の指摘を受け、フェイスブックは当局により一時的に遮断された。

しかし、メタ社はこれらの警告を何度も無視し、またヘイトスピーチに関する同社自身の方針を実践することもなかった。

アムネスティは調査で、新証拠として内部告発者が漏洩した内部文書「フェイスブック・ペーパー」でわかった新事実の分析もした。2019年8月付けの内部文書の中で、メタ社員の一人が、「フェイスブック上のヘイトスピーチ、社会を分断する政治的発言、誤情報などが、世界中の社会に影響を与えているという証拠をさまざまな情報源から得ている。また、レコメンデーションやエンゲージメントの最適化など、当社の製品の基本的な仕組みが、このような言論がフェイスブック上で盛んに行われる理由の重要な部分を占めているという有力な証拠もある」と指摘していた。

メタ社による補償は責務

アムネスティは9月29日、メタ社に対しロヒンギャの救済要求に応えるよう求めるキャンペーンを開始した。

ちょうど1年前、「平和と人権のためのアラカン・ロヒンギャ協会」の会長で著名な活動家だったモヒブウラーさんが殺害された。同氏は、メタ社の責任を追及する活動の中心的人物だった。

ロヒンギャ難民の複数の団体はメタ社に対し、ロヒンギャへの救済としてバングラデシュのコックスバザールにある難民キャンプの教育に100万米ドルの資金提供を求めた。この金額は、昨年のメタ社の利益467億ドルのわずか0.002%だったが、同社は昨年2月、「フェイスブックは慈善活動に直接、関わらない」として、ロヒンギャ団体の要望を受け入れなかった。

同様にメタ社への救済を求める申し立ては現時点で少なくとも3件ある。昨年12月、英国と米国で同社を相手取った民事訴訟が起こされた。また、若いロヒンギャ難民グループがメタ社を相手取りOECDに申し立てを行い、OECDの米国「連絡窓口」が現在、検討を進めている。

ロヒンギャ迫害に加担したメタ社は、国際人権基準に基づき被害を救済する義務がある。アムネスティの調査結果は、メタ社がビジネスモデルとアルゴリズムを根本的に変えない限り、同社が今後も人権侵害を助長するおそれがあるという警鐘を鳴らしている。

ロヒンギャをめぐるメタ社の対応が、世界の他の場所、特に民族に関わる暴力が激化する場所で繰り返されないようにするためには、不正行為の防止と透明性の向上に向けたアルゴリズムの緊急かつ広範な改善が切実に求められている。

最終的には国が、テクノロジー業界全体にユーザーの行動履歴に基づくビジネスモデルを規制する法律を導入して、人権保護を後押しする必要がある。巨大テクノロジー企業は、巨額の利益を犠牲にするような自主規制ができないことを自ら証明しているからだ。

アムネスティは5月20日、メタ社に2017年の掃討作戦中とそれ以前の対応についての質問を文書でしたが、同社の返答は関連する問題で訴訟中だとしてコメントを差し控えるというものだった。

6月14日にも他の申し立てについて照会する文書を送ったが、メタ社のコメントは得られなかった。

アムネスティ国際ニュース
2022年9月29日

英語のニュースを読む