SimburCahaya.com – “Anda tidak memerlukan gelar PhD dari MIT untuk membuat perbedaan dalam perjuangan keadilan algoritmik. Yang Anda butuhkan hanyalah pikiran yang penuh rasa ingin tahu dan hati manusia.”
Pada tahun 2023, media global berbahasa Inggris mengutip lima tokoh pria di bidang kecerdasan buatan (AI) – Elon Musk, Sam Altman, Geoffrey Hinton, Jensen Huang, dan Greg Brockman, kutipan tersebut dipublikasikan delapan kali lebih sering dibandingkan 42 perempuan pakar AI yang masuk dalam daftar 100 teratas versi Majalah Time.
Adapun Daftar influencer AI, yang mencakup nama-nama, seperti Grimes, Margrethe Vestager, Timnit Gebru, Margaret Mitchell, Emily Bender, dan Joy Buolamwini.
Bias gender ini, yang terungkap melalui analisis AKAS terhadap 5 juta artikel berita online pada tahun 2023 yang merujuk pada AI pada database berita online global GDELT, tidak terdeteksi oleh jurnalisme. Mengurangi bias gender dalam diskusi seputar AI adalah cara penting untuk memastikan bahwa berita mencerminkan keberagaman di dunia, dan relevan bagi khalayak seluas mungkin.
“Saya berbicara dengan beberapa pakar tentang bias dalam AI generatif, termasuk bias gender, dan peran jurnalisme dalam mematahkan bias tersebut,” kata Luba dikutip dari ijnet.org.
Keberadaan bias yang dimasukkan ke dalam AI generatif (GenAI) yang mencakup ChatGPT, Google’s Bard, dan pembuat gambar, seperti Midjourney, membungkam, mendistorsi, bahkan menghapus suara kelompok-kelompok tertentu yang kurang terwakili. Karena AI generatif memperkuat bias masyarakat melalui kumpulan data yang digunakan dalam algoritme untuk menghasilkan teks, gambar, dan video yang menggunakan kelompok kecil yang tidak mewakili kelompok kecil sebagai standar untuk seluruh populasi global.
Luba menjelaskan perspektif pemrogram terhadap dunia juga mempengaruhi algoritma yang mereka kembangkan, sehingga menambah bias pada konten yang dihasilkan. Misalnya saja, teknologi pengenalan wajah yang digunakan dalam kepolisian, secara tidak proporsional didasarkan pada data wajah berkulit putih (80%) dan laki-laki (75%). Meskipun akurasinya mencapai 99-100% dalam mendeteksi wajah laki-laki berkulit putih, akurasinya turun tajam menjadi 65% untuk perempuan berkulit hitam.
Begitu pula, artikel-artikel berita yang didukung GenAI sangat bergantung pada kumpulan artikel-artikel lampau yang jumlah suara kontributor/protagonis laki-laki jauh lebih tinggi dibandingkan perempuan.
Algoritma yang dibuat dengan bias-bias ini menjadi apa yang disebut Joy Buolamwini dalam buku barunya, Unmasking AI, sebagai “pandangan berkode” (yaitu prioritas, preferensi, dan bahkan prasangka pembuat kode yang tercermin dalam produk yang mereka bentuk). Kelompok yang kurang terwakili akan menjadi “yang dikecualikan” (yaitu individu atau komunitas yang dirugikan oleh sistem algoritmik). “Pandangan berkode” memperdalam bias yang ada dalam kumpulan data.
Lalu bias yang berasal dari pengguna produk, misalnya pengguna awal generator teks GenAI seperti ChatGPT atau generator gambar seperti Midjourney, DALL-E, dan Stable Diffusion. Octavia Sheepshanks, jurnalis dan peneliti AI, mengatakan, “Hal yang sering tidak disebutkan adalah fakta bahwa orang-orang yang menggunakan gambarlah yang juga membentuk model pembuat gambar.”
Para pengguna produk awal ini selanjutnya membentuk konten yang dihasilkan AI melalui cara mereka berinteraksi dengan produk, dengan bias mereka sendiri yang dimasukkan kembali ke dalam algoritma pembelajaran mandiri.
Perspektif global yang didominasi laki-laki kulit putih Utara
Apa kesamaan yang dimiliki oleh kumpulan data, pemrogram, dan pengguna produk ini? Mereka lebih cenderung mewakili perspektif, nilai-nilai dan selera orang-orang kulit putih berbahasa Inggris dari budaya di belahan bumi utara.
Dalam analisis konten ChatGPT pada bulan Agustus 2023, yang mengeksplorasi bagaimana gender dan ras memengaruhi penggambaran CEO dalam konten ChatGPT, Kalev Leetaru, pendiri Proyek GDELT, menyimpulkan bahwa “hasil akhirnya menimbulkan pertanyaan eksistensial gender dan bias rasial” tentang bahasa besar model (LLM).
Misalnya, meskipun ChatGPT mendeskripsikan CEO pria kulit putih yang sukses berdasarkan keterampilan mereka, CEO perempuan dan CEO kulit berwarna yang sukses digambarkan berdasarkan identitas dan kemampuan mereka melawan kesulitan, bukan keahlian berbasis kompetensi mereka.
Pandangan libertarian yang menghargai kebebasan berekspresi dan melindungi inovasi online dibandingkan intervensionisme tersebar luas di sekolah-sekolah teknologi besar dan teknik. Hal ini menjadi hambatan dalam mengatasi bias dalam AI.
Sementara Hany Farid, seorang profesor ilmu komputer di Universitas California, Berkeley, khawatir bahwa pandangan-pandangan ini hanya menutupi ketidaktahuan etis, atau sikap apatis yang mendasari dan kurangnya kepedulian di sektor AI.
Menurut dia hal-hal tersebut mewakili cara yang berbahaya dalam memandang dunia, terutama ketika Anda berfokus pada kerugian yang telah menimpa perempuan, anak-anak, dan kelompok, masyarakat, dan negara demokrasi yang kurang terwakili.
Kemudian, ada bahaya bahwa jurnalis juga membantu perempuan dan kelompok lain yang kurang terwakili untuk keluar dari masa depan AI. Saat ini, hanya sebagian kecil editor berita teknologi di AS (18%) dan Inggris (23%) adalah perempuan. Selain itu, dalam liputan berita AI, perempuan empat kali lebih jarang ditampilkan sebagai pakar, kontributor, atau protagonis dibandingkan laki-laki, menurut analisis GDELT kami.
Ketika kita menggabungkan dimensi ras ke dalam gender, permasalahannya bertambah dalam beberapa cara. Pertama, perempuan kulit berwarna secara signifikan lebih besar kemungkinannya untuk tidak dimasukkan dalam pengambilan keputusan editorial dan sebagai kontributor berita dibandingkan laki-laki atau perempuan kulit putih. Kedua, ketika mereka diwawancarai, perempuan kulit berwarna lebih cenderung ditanyai berdasarkan identitas mereka dibandingkan keahlian mereka.
Agnes Stenbom, kepala IN/LAB di Schibsted, Swedia memperingatkan bahwa organisasi berita harus berhati-hati dalam menggunakan bahasa gender, misalnya tidak berasumsi bahwa dokter adalah laki-laki dan perawat perempuan karena hal ini dapat “memperkuat” bias gender.
Lars Damgaard Nielsen, CEO dan salah satu pendiri MediaCatch Denmark, memperingatkan bahwa perempuan kulit berwarna kurang terwakili dalam pemberitaan di Denmark. Hal ini tercermin dalam bagaimana orang kulit berwarna digambarkan dalam berita, menurut analisis tahun lalu yang menggunakan alat berbasis AI dari MediaCatch, DiversityCatch, yang menunjukkan bahwa “individu non-Barat sering kali muncul bukan karena keahlian profesional mereka, namun karena keahlian mereka. identitas.”
Jurnalisme harus berperan sebagai pengawas teknologi GenAI untuk memitigasi bias yang ada
Cara paling efektif untuk memitigasi bias terkait homogenitas adalah dengan menciptakan kumpulan data yang lebih inklusif, sebagaimana dikemukakan Buolamwini dalam bukunya. Namun, regulator dan jurnalis menghadapi tantangan besar yang harus mereka hadapi – mereka tidak mengetahui data pasti yang diambil dari AI karena kurangnya transparansi di industri AI.
“Transparansi menjadi semakin terbatas. Ketika keuntungan sudah diperhitungkan, perusahaan menjadi lebih eksklusif terhadap model mereka dan kurang bersedia untuk berbagi,” ujar Jessica Kuntz, direktur kebijakan di Pitt Cyber. Tidak adanya transparansi menghambat audit algoritmik, sehingga menyulitkan jurnalis untuk membangun pagar pembatas untuk melindungi diri dari bias.
Jika ruang GenAI dibiarkan berkembang tanpa tantangan, seperti yang ditetapkan oleh Big Tech, dunia yang kaya akan AI di masa depan akan semakin kekurangan keberagaman perspektif, seperti perspektif perempuan, etnis minoritas, masyarakat global selatan, dan budaya lainnya.(*)
Sumber: ijnet.org
Luba Kassova adalah penulis The Missing Perspectives of Women dalam serial laporan berita, termasuk “From Outrage to Opportunity” terbaru, serta artikel di berbagai media, termasuk Guardian, Foreign Policy, dan EUObserver. Dia adalah salah satu pendiri dan direktur konsultan internasional AKAS. Karya Luba telah dikutip di media berita di lebih dari 75 negara.
Foto oleh Emiliano Vittoriosi di Unsplash.