Alih-alih melakukan intervensi manusia, Twitter kini sangat mengandalkan otomatisasi untuk memoderasi konten berbahaya yang diposting oleh pengguna, kata kepala kepercayaan dan keamanan Twitter yang baru, Ella Irwin, pada awal Desember.
Namun, hal itu tidak membuat Twitter menjadi tempat yang lebih aman, kata mantan karyawan tersebut. “Jika saya adalah aktor yang buruk, saya akan menguji sistemnya sekarang.”
Perkembangan terkini ini merupakan “kekhawatiran besar”, kata Eirliani Abdul Rahman, aktivis keselamatan anak asal Singapura dan anggota pendiri Trust and Safety Board Twitter.
“Saya rasa ini tidak lagi aman untuk anak-anak saat online,” katanya kepada CNA.
“Anda tidak bisa melakukan moderasi konten hanya untuk mengambil gambar dari pinggul. Hal ini dilakukan melalui kerja berbasis bukti.”
Sebagai protes atas menurunnya standar keamanan online Twitter, dia dan dua rekan penasihatnya di dewan mengundurkan diri minggu lalu.
Pada Senin (12 Desember), Twitter membubarkan dewan yang dibentuknya pada tahun 2016 dengan 100 anggota.
Perusahaan tidak menanggapi permintaan komentar CNA mengenai upaya penegakan hukum terhadap eksploitasi seksual anak.
TWEET DALAM KODE
Mantan karyawan tersebut merinci kepada CNA bagaimana model pembelajaran mesin otomatis sering kali kesulitan mengejar modus operandi pelaku pelecehan anak yang terus berkembang.
Memperdagangkan konten semacam itu di Twitter memerlukan upaya untuk membedakan antara cukup jelas bagi calon “pembeli” dan cukup halus untuk menghindari deteksi.
Dalam praktiknya, hal ini berarti menggunakan kata-kata kode yang selalu berubah untuk menghindari penegakan hukum.
Misalnya, “MAP” adalah akronim umum untuk mengidentifikasi diri Anda sebagai “orang kecil yang tertarik”, namun seiring berjalannya waktu, istilah tersebut berkembang menjadi penggunaan emoji peta. 🗺️ dan bahkan istilah “kartografer”.
Dengan semakin sedikitnya moderator konten dan spesialis domain di Twitter yang dapat mengikuti perubahan tersebut, terdapat bahaya bahwa para pelaku penyalahgunaan akan mengambil kesempatan untuk mengoordinasikan rangkaian kata-kata kode baru yang tidak dapat dengan cepat ditangkap oleh sistem otomatis dan tim yang lebih kecil. kata karyawan itu. .
Selain kata kunci, hash gambar atau sidik jari digital dari materi dan perilaku akun yang diketahui melakukan pelecehan seksual – seperti interaksi dengan akun seksual eksplisit – juga digunakan untuk mengidentifikasi akun yang melakukan pelanggaran.
Tinjauan manual memainkan peran kunci. Misalnya, moderator menggunakan kriteria seperti skala Tanner, yaitu peringkat kematangan seksual, untuk menentukan apakah seseorang yang muncul dalam materi seksual eksplisit adalah anak di bawah umur berdasarkan karakteristik fisik.
Aktivitas yang jarang terjadi namun sangat berbahaya, seperti membuat materi pelecehan seksual terhadap anak-anak atau meminta layanan seksual dari anak di bawah umur, sangat sulit dideteksi dengan otomatisasi.
Itu karena orang-orang sebenarnya di balik akun tersebut berbicara dengan cara organik yang tidak tertulis, dan tidak ada hash gambar untuk visual baru, kata mantan karyawan tersebut.
Mantan karyawan tersebut menambahkan bahwa setiap proses otomatis untuk mengidentifikasi tweet yang menyinggung juga harus cukup bernuansa agar tidak menghilangkan “penggunaan yang tidak wajar” dari istilah-istilah yang terkait dengan eksploitasi seksual terhadap anak.
“Seorang korban yang menarik perhatian terhadap penderitaannya, tanpa cara yang mudah untuk melakukannya dan dalam situasi atau pola pikir yang tidak baik, dapat dengan mudah menggunakan tagar dan kata kunci yang bermasalah,” kata mereka.
Sebaliknya, kegagalan untuk memahami penggunaan bahasa seperti itu dapat menyebabkan pembungkaman dan menjadikan mereka korban pelecehan seksual terhadap anak-anak sebagai korban kembali, kata mereka.