16 September 2024

Bagi kelompok minoritas, algoritma AI yang bias dapat merusak hampir setiap aspek kehidupan

4 min read

London London, 29 Agustus (The Conversation) Data yang buruk tidak hanya menghasilkan hasil yang buruk. Hal ini juga dapat membantu menekan kelompok masyarakat, misalnya perempuan dan kelompok minoritas yang rentan.

En parallèleThe Mandalorian Season 4 Rumored to Become a Movie

Inilah argumen buku baru saya tentang hubungan antara berbagai bentuk rasisme dan seksisme serta kecerdasan buatan (AI). Masalahnya akut. Algoritma pada umumnya perlu diekspos ke data – sering kali diambil dari internet – untuk meningkatkan kinerjanya, seperti menyaring lamaran pekerjaan, atau menjamin hipotek.

Namun data pelatihan seringkali mengandung banyak bias yang ada di dunia nyata. Misalnya, algoritme dapat mempelajari bahwa sebagian besar orang dalam peran pekerjaan tertentu adalah laki-laki dan oleh karena itu lebih memilih laki-laki dalam lamaran pekerjaan. Data kami tercemar oleh serangkaian mitos dari zaman “pencerahan”, termasuk bias yang mengarah pada diskriminasi berdasarkan gender dan identitas seksual.

A voir aussiRusia menjatuhkan drone di dekat Moskow, menghentikan penerbangan

Dilihat dari sejarah masyarakat di mana rasisme berperan dalam membangun tatanan sosial dan politik, memberikan hak istimewa kepada laki-laki kulit putih –- di Eropa, Amerika Utara dan Australia, misalnya – adalah ilmu pengetahuan yang sederhana untuk berasumsi bahwa sisa-sisa diskriminasi rasis memberi masukan pada teknologi kami.

Dalam penelitian saya untuk buku ini, saya telah mendokumentasikan beberapa contoh yang menonjol. Perangkat lunak pengenalan wajah sering kali salah mengidentifikasi kelompok minoritas kulit hitam dan Asia, sehingga menyebabkan terjadinya penangkapan palsu di AS dan negara lain.

Perangkat lunak yang digunakan dalam sistem peradilan pidana memperkirakan bahwa pelaku kulit hitam akan memiliki tingkat residivisme yang lebih tinggi dibandingkan mereka. Ada keputusan perawatan kesehatan yang salah. Sebuah penelitian menemukan bahwa pasien berkulit hitam dan putih diberi skor risiko kesehatan yang sama berdasarkan algoritma yang digunakan dalam manajemen kesehatan AS, pasien berkulit hitam sering kali lebih sakit dibandingkan pasien berkulit putih.

Hal ini mengurangi lebih dari setengah jumlah pasien kulit hitam yang diidentifikasi membutuhkan perawatan ekstra. Karena lebih sedikit uang yang dibelanjakan untuk pasien kulit hitam yang memiliki tingkat kebutuhan yang sama dengan pasien kulit putih, algoritma tersebut secara keliru menyimpulkan bahwa pasien kulit hitam lebih sehat dibandingkan pasien kulit putih yang sama sakitnya. Penolakan hipotek untuk populasi minoritas difasilitasi oleh kumpulan data yang bias. Daftarnya terus berlanjut.

Mesin tidak berbohong? Algoritme yang menindas seperti itu mengganggu hampir setiap bidang kehidupan kita. AI memperburuk keadaan, karena AI dijual kepada kita sebagai sesuatu yang tidak memihak. Kita diberitahu bahwa mesin tidak berbohong. Oleh karena itu, logikanya, tidak ada yang bisa disalahkan.

Objektivitas semu ini merupakan inti dari hype AI yang diciptakan oleh raksasa teknologi Silicon Valley. Hal ini mudah dilihat dari pidato Elon Musk, Mark Zuckerberg, dan Bill Gates, meskipun kadang-kadang mereka memperingatkan kita tentang proyek yang menjadi tanggung jawab mereka sendiri.

Ada berbagai masalah hukum dan etika yang belum terselesaikan. Siapa yang bertanggung jawab atas kesalahan tersebut? Bisakah seseorang mengklaim kompensasi atas algoritme yang menolak pembebasan bersyarat berdasarkan latar belakang etnis mereka dengan cara yang sama seperti yang dilakukan pada pemanggang roti yang meledak di dapur? Sifat teknologi AI yang tidak jelas menimbulkan tantangan serius terhadap sistem hukum yang dibangun berdasarkan akuntabilitas individu atau manusia. Pada tingkat yang lebih mendasar, hak asasi manusia terancam, karena akuntabilitas hukum menjadi kabur karena adanya labirin teknologi yang ditempatkan di antara para pelaku dan berbagai bentuk diskriminasi yang dapat dengan mudah disalahkan pada mesin.

Rasisme selalu menjadi strategi sistematis untuk menertibkan masyarakat. Hal ini membangun, melegitimasi dan menegakkan hierarki antara yang kaya dan yang tidak punya.

Kekosongan etika dan hukum Di dunia yang sulit memisahkan kebenaran dan kenyataan dari ketidakbenaran, privasi kita perlu dilindungi secara hukum. Hak atas privasi dan kepemilikan data virtual dan nyata perlu dikodifikasikan sebagai hak asasi manusia, salah satunya untuk memanfaatkan peluang nyata yang dimiliki oleh AI yang baik untuk keamanan manusia.

Namun saat ini, para inovator sudah jauh di depan kita. Teknologi telah melampaui undang-undang. Kekosongan etika dan hukum yang tercipta dengan mudah dieksploitasi oleh para penjahat, karena dunia AI baru yang berani ini sebagian besar bersifat anarkis.

Dibutakan oleh kesalahan di masa lalu, kita telah memasuki dunia barat yang liar tanpa adanya sheriff yang mengawasi kekerasan dunia digital yang menyelimuti kehidupan kita sehari-hari. Tragedi ini sudah terjadi setiap hari.

Sudah waktunya untuk melawan dampak etika, politik dan sosial dengan gerakan sosial terpadu yang mendukung legislasi. Langkah pertama adalah mendidik diri kita sendiri tentang apa yang terjadi saat ini, karena hidup kita tidak akan pernah sama lagi. Merupakan tanggung jawab kami untuk merencanakan tindakan untuk masa depan AI baru ini. Hanya dengan cara inilah pemanfaatan AI dapat dikodifikasikan di lembaga-lembaga lokal, nasional, dan global. (Percakapan) AMS AMS

(Cerita ini belum diedit oleh staf dan dibuat secara otomatis dari feed sindikasi.)