Algoritma bias menggambarkan galat sistematis dan berulang dalam sistem komputer yang menciptakan hasil “tidak adil”, seperti “mengistimewakan” satu kategori di atas kategori lainnya dengan cara yang berbeda dari fungsi yang dimaksudkan dari algoritma.

Sebuah flow chart menunjukkan keputusan yang dibuat oleh mesin rekomendasi, ca 2001[1]

Banyak faktor dapat menyebabkan bias, seperti desain algoritma atau penggunaan yang tidak disengaja atau tidak terduga; serta keputusan tentang cara data dikodekan, dikumpulkan, dipilih, atau digunakan untuk melatih algoritma. Sebagai contoh, hasil mesin pencari dan platform media sosial telah diamati memiliki algoritma bias. Bias ini dapat berdampak dari pelanggaran privasi yang tidak disengaja hingga memperkuat bias sosial terkait ras, gender, orientasi seksual, dan etnisitas. Studi tentang bias algoritmik terutama berfokus pada algoritma yang mencerminkan diskriminasi yang "sistematis dan tidak adil".[2] Peraturan Perlindungan Data Umum Uni Eropa yang diusulkan pada tahun 2018 dan Undang-Undang Kecerdasan Buatan yang diusulkan pada tahun 2021 dan disetujui pada tahun 2024 adalah beberapa contoh undang-undang baru yang baru saja mulai menangani bias ini.

Semakin banyak algoritma yang dapat mengontrol perilaku, politik, institusi, dan masyarakat, sosiolog mulai khawatir tentang bagaimana hasil yang tidak terduga dan manipulasi data dapat memengaruhi dunia fisik. Sebagai akibat dari fenomena psikologis yang dikenal sebagai bias otomatisasi, algoritma dapat secara keliru menunjukkan otoritas yang lebih besar daripada keahlian manusia. Ini terjadi karena algoritma umumnya dianggap netral dan bebas bias. Dalam beberapa situasi, ketergantungan pada algoritma dapat berfungsi sebagai pengganti orang yang bertanggung jawab atas hasil yang dihasilkan. Ada kemungkinan bias masuk ke dalam sistem algoritmik karena ekspektasi sosial, budaya, atau institusional yang sudah ada sebelumnya; cara fitur dan label dipilih; kendala teknis dalam desain; atau penggunaan dalam situasi yang tidak terduga atau oleh audiens yang tidak diperhitungkan saat desain perangkat lunak dibuat.[3]

Dalam berbagai situasi, mulai dari hasil pemilu hingga penyebaran ujaran kebencian secara daring, algoritma bias telah disebutkan. Selain itu, bias ini muncul di bidang peradilan pidana, layanan kesehatan, dan perekrutan, memperparah ketidaksetaraan rasial, sosial-ekonomi, dan gender yang sudah ada. Beberapa kasus penangkapan salah pria kulit hitam telah dikaitkan dengan teknologi pengenalan wajah yang kurang akurat untuk mengidentifikasi wajah berkulit gelap. Masalah ini berasal dari kumpulan data yang tidak seimbang. Karena sifat algoritma yang rahasia dan biasanya dianggap sebagai rahasia dagang, sulit untuk memahami, meneliti, dan mengungkap biasnya. Bahkan jika transparansi penuh diberikan, kompleksitas algoritma tertentu membuatnya sulit dipahami. Selain itu, algoritma memiliki kemampuan untuk mengubah atau merespons masukan atau keluaran dengan cara yang mudah direplikasi atau tidak dapat diprediksi. Bahkan antara pengguna layanan yang sama, seringkali tidak ada satu "algoritma" tunggal yang dapat diperiksa, melainkan jaringan program dan input data yang saling terkait.

Definisi

sunting
 
Diagram tahun 1969 menunjukkan bagaimana sebuah program komputer sederhana membuat keputusan, yang menggambarkan algoritma yang sangat sederhana.

Meskipun definisi algoritma sulit ditemukan,[4] algoritma dapat digambarkan sebagai rangkaian prosedur yang digunakan oleh program untuk membaca, mengumpulkan, memproses, dan menganalisis data untuk menghasilkan keluaran.[5] Lihat Algoritma untuk pengenalan teknis yang lebih mendalam. Kemampuan untuk memproses, menyimpan, dan mengirimkan data telah ditingkatkan berkat kemajuan perangkat keras komputer. Ini pada gilirannya mendorong pengembangan dan adopsi teknologi seperti pembelajaran mesin dan kecerdasan buatan.[6] Algoritma adalah inti dari mesin pencari,[7] situs media sosial,[8] mesin rekomendasi,[9] ritel daring,[10] iklan daring,[11] dan banyak lagi berkat analisis dan pemrosesan data.[12]

Ilmuwan sosial saat ini memperhatikan proses algoritmik yang tertanam dalam perangkat keras dan aplikasi perangkat lunak karena efeknya terhadap politik dan sosial. Mereka juga mempertanyakan asumsi netralitas yang mendasari algoritma.[13][14][15][16] Algorithmic bias adalah istilah yang digunakan untuk menggambarkan kesalahan yang berulang dan sistematis yang menghasilkan hasil yang tidak adil, seperti memberikan preferensi khusus kepada kelompok pengguna tertentu secara arbitrer daripada kelompok pengguna lainnya. Sebagai contoh, algoritma skor kredit dapat menolak pinjaman tanpa menjadi tidak adil jika secara konsisten menimbang kriteria keuangan yang relevan. Namun, jika algoritma merekomendasikan pinjaman kepada kelompok pengguna tertentu tetapi menolak kelompok pengguna lain yang hampir identik berdasarkan kriteria yang tidak relevan, perilaku ini dapat diulangi dalam banyak kasus.[17] Ada kemungkinan bias ini terjadi secara sengaja atau tidak sengaja. Misalnya, mereka dapat berasal dari data yang bias yang dikumpulkan dari pekerja yang sebelumnya melakukan tugas yang akan diambil alih oleh algoritma.

Metode

sunting

Ketika kumpulan data disusun, data dapat dikumpulkan, didigitalisasi, disesuaikan, dan dimasukkan ke dalam basis data sesuai dengan standar pengkatalogan yang dirancang oleh manusia.[18] Ada banyak cara bias dapat masuk ke dalam algoritma. Selanjutnya, programmer menetapkan prioritas atau hierarki untuk menilai dan mengurutkan data. Proses ini memerlukan keputusan manusia tentang bagaimana data dikategorikan dan mana yang akan dimasukkan atau diabaikan. Algoritma tertentu dapat memperkuat stereotip dan preferensi saat memproses dan menampilkan data "relevan" untuk pengguna manusia, misalnya dengan memilih informasi berdasarkan pilihan pengguna sebelumnya atau kelompok pengguna yang sebanding. Algoritma lainnya mengumpulkan data mereka sendiri berdasarkan kriteria yang dipilih oleh manusia, yang dapat menunjukkan bias perancangnya.[18]

Bias dapat berasal dari desain selain dari pengumpulan dan pemrosesan data.[19] Sebagai contoh, algoritma yang mengatur alokasi sumber daya atau pengawasan (seperti yang menentukan lokasi sekolah) dapat secara tidak sengaja mendiskriminasi suatu kategori saat menentukan risiko berdasarkan karakteristik pengguna yang sebanding (seperti skor kredit).[20] Meskipun demikian, mesin rekomendasi yang menggunakan ciri pemasaran yang disimpulkan atau mengasosiasikan pengguna dengan orang yang serupa mungkin bergantung pada hubungan yang tidak akurat yang mencerminkan stereotip etnis, gender, sosial-ekonomi, atau rasial yang luas. Contoh tambahan berasal dari proses menentukan standar untuk menentukan apa yang dimasukkan dan dikecualikan dari hasil pencarian. Perangkat lunak rekomendasi penerbangan dapat mengabaikan penerbangan yang tidak mengikuti jalur penerbangan maskapai yang mensponsori karena kriteria ini dapat menghasilkan hasil yang tidak dapat diprediksi.[19] Bias ketidakpastian, yang memungkinkan penilaian yang lebih yakin ketika kumpulan data yang lebih besar tersedia, dapat memiringkan proses algoritma menuju hasil yang lebih sesuai dengan sampel yang lebih besar, yang mungkin mengabaikan data populasi yang lebih kecil.[21]

Regulasi

sunting

"Pengambilan keputusan individu otomatis, termasuk pemprofilan" diatur dalam Pasal 22 Peraturan Perlindungan Data Umum (GDPR), yang diubah dan diterapkan oleh Uni Eropa pada tahun 2018. Aturan ini melarang keputusan otomatis yang "semata-mata" yang berdampak "signifikan" atau "hukum" terhadap individu kecuali jika secara eksplisit diizinkan melalui persetujuan, kontrak, atau hukum negara anggota. Perlindungan yang memadai harus ada di mana keputusan tersebut dapat dilakukan, seperti hak untuk melibatkan orang lain dalam proses dan hak yang tidak mengikat untuk mendapatkan penjelasan tentang keputusan yang dibuat. Meskipun peraturan ini sering dianggap baru, Pasal 15 dari Arahan Perlindungan Data dari 1995 telah menetapkan peraturan yang hampir identik di seluruh Eropa. Perlindungan keputusan otomatis pertama kali ditemukan dalam hukum Prancis pada akhir 1970-an.[22]

GDPR juga membahas bias algoritmik sistem pemprofilan dan metode statistik yang dapat digunakan untuk membersihkannya, secara langsung dalam recital 71,[23] yang menyatakan:

Pengendali harus menerapkan prosedur teknis dan organisasi yang sesuai untuk pemprofilan, dan menggunakan prosedur matematis atau statistik yang sesuai untuk mencegah dampak diskriminatif terhadap individu berdasarkan asal ras atau etnis, opini politik, agama atau keyakinan, keanggotaan serikat pekerja, status genetik atau kesehatan, atau orientasi seksual, atau yang mengakibatkan tindakan yang memiliki dampak tersebut.

Sifat tidak mengikat dari recital 71 sama dengan hak yang tidak mengikat untuk mendapatkan penjelasan.[24] Meskipun Kelompok Kerja Pasal 29, yang memberikan rekomendasi tentang bagaimana menggunakan hukum perlindungan data,[23] menganggap hal ini sebagai keharusan, aspek praktisnya masih tidak jelas. Ada pendapat bahwa Penilaian Dampak Perlindungan Data untuk pemprofilan data berisiko tinggi, bersama dengan langkah-langkah pencegahan lainnya untuk perlindungan data, mungkin merupakan pendekatan yang lebih baik untuk memecahkan masalah diskriminasi algoritmik karena membatasi tindakan algoritma yang digunakan, daripada mengharuskan pelanggan mengajukan keluhan atau meminta perubahan.[25]

Sebuah rancangan Undang-Undang Perlindungan Data Pribadi dirilis pada 31 Juli 2018.[26] Konsep untuk penyimpanan, pemrosesan, dan pengiriman data diusulkan dalam rancangan tersebut. Rancangan ini mencakup ketentuan untuk "kerugian yang diakibatkan oleh pemrosesan atau jenis pemrosesan yang dilakukan oleh pihak yang bertanggung jawab", meskipun tidak menggunakan istilah algoritma. Kerugian yang dapat disebabkan oleh penggunaan data yang tidak tepat disebut sebagai "penolakan atau pencabutan layanan, manfaat, atau barang yang diakibatkan oleh keputusan evaluatif tentang data subjek" atau "perlakuan diskriminatif". Selain itu, ketentuan khusus untuk individu dengan "status interseks" juga dimasukkan dalam rancangan ini.[27]

Referensi

sunting
  1. ^ Jacobi, Jennifer (13 September 2001). "Patent #US2001021914". Espacenet. Diakses tanggal 4 July 2018. 
  2. ^ Marabelli, Marco (2024). "AI, Ethics, and Discrimination in Business". Palgrave Studies in Equity, Diversity, Inclusion, and Indigenization in Business (dalam bahasa Inggris). doi:10.1007/978-3-031-53919-0. ISSN 2731-7307. 
  3. ^ Suresh, Harini; Guttag, John (2021-11-04). "A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle". Proceedings of the 1st ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization. EAAMO '21. New York, NY, USA: Association for Computing Machinery: 1–9. doi:10.1145/3465416.3483305. ISBN 978-1-4503-8553-4. 
  4. ^ "What is an Algorithm? – Culture Digitally" (dalam bahasa Inggris). 2012-02-01. Diakses tanggal 2024-12-12. 
  5. ^ Cormen, Thomas H; Leiserson, Charles E; Rivest, Ronald L (2009). "Introduction to Algorithms". Cambridge. 5. ISBN 9780262033848. 
  6. ^ Kitchin, Rob (2017-01-02). "Thinking critically about and researching algorithms". Information, Communication & Society. doi:10.1080/1369118x.2016.1154087. ISSN 1369-118X. 
  7. ^ "Menentukan Peringkat Hasil – Cara Kerja Google Penelusuran". Google Penelusuran - Ketahui Cara Kerja Google Penelusuran. Diakses tanggal 2024-12-12. 
  8. ^ Luckerson, Victor (2015-07-09). "Here's How Your Facebook News Feed Actually Works". TIME.com. Diakses tanggal 2024-12-12. 
  9. ^ Vanderbilt, Tom. "The Science Behind the Netflix Algorithms That Decide What You'll Watch Next". Wired (dalam bahasa Inggris). ISSN 1059-1028. Diakses tanggal 2024-12-12. 
  10. ^ Mattu, Julia Angwin,Surya (2016-09-20). "Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't". ProPublica (dalam bahasa Inggris). Diakses tanggal 2024-12-12. 
  11. ^ Livingstone, Rob (2017-03-13). "The future of online advertising is big data and algorithms". The Conversation (dalam bahasa Inggris). Diakses tanggal 2024-12-12. 
  12. ^ Hickman, Leo (2013-07-01). "How algorithms rule the world". The Guardian (dalam bahasa Inggris). ISSN 0261-3077. Diakses tanggal 2024-12-12. 
  13. ^ Seaver, Nick (2013). "Knowing Algorithms" (PDF). Media in Transition 8. 
  14. ^ Graham, Stephen D.N. (2016). "Software-sorted geographies" (PDF). Progress in Human Geography. 29. doi:10.1191/0309132505ph568oa. 
  15. ^ Tewell, Eamon (2016). "Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy". portal: Libraries and the Academy. 16 (2): 289–310. ISSN 1530-7131. 
  16. ^ Crawford, Kate (2013-04-01). "The Hidden Biases in Big Data". Harvard Business Review. ISSN 0017-8012. Diakses tanggal 2024-12-12. 
  17. ^ Friedman, Batya; Nissenbaum, Helen (1996). "Bias in Computer Sytems" (PDF). ACM Transactions on Information Systems. 14 (3). doi:10.1145/230538.230561. 
  18. ^ a b Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). "Media Technologies". Cambridge: MIT Press. 1–30. ISBN 9780262525374. 
  19. ^ a b "Tow Center". towcenter.columbia.edu. Diakses tanggal 2024-12-12. 
  20. ^ Lipartito, Kenneth (2011). "The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today" (PDF). MPRA. SSRN 1736283 . 
  21. ^ Goodman, Bryce; Flaxman, Seth (2017). "European Union Regulations on Algorithmic Decision Making and a "Right to Explanation"". AI Magazine (dalam bahasa Inggris). 38 (3): 50–57. doi:10.1609/aimag.v38i3.2741. ISSN 2371-9621. 
  22. ^ Bygrave, Lee A (2001-01-01). "AUTOMATED PROFILING: MINDING THE MACHINE: ARTICLE 15 OF THE EC DATA PROTECTION DIRECTIVE AND AUTOMATED PROFILING". Computer Law & Security Review. 17 (1): 17–24. doi:10.1016/S0267-3649(01)00104-2. ISSN 0267-3649. 
  23. ^ a b Veale, Michael; Edwards, Lilian (2018). "Clarity, Surprises, and Further Questions in the Article 29 Working Party Draft Guidance on Automated Decision-Making and Profiling" (PDF). Computer Law & Security Review. 34. doi:10.1016/j.clsr.2017.12.002. 
  24. ^ Wachter, Sandra; Mittelstadt, Brent; Floridi, Luciano (2017-05-01). "Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation". International Data Privacy Law. 7 (2): 76–99. doi:10.1093/idpl/ipx005. ISSN 2044-3994. 
  25. ^ Edwards, Lilian; Veale, Michael (2017). "Slave to the Algorithm? Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For". Duke Law & Technology Review. 16. SSRN 2972855 . 
  26. ^ Rai, Saritha (2018-07-31). "India Weighs Comprehensive Data Privacy Bill, Similar to EU's GDPR". Insurance Journal (dalam bahasa Inggris). Diakses tanggal 2024-12-12. 
  27. ^ "The Personal Data Protection Bill, 2018" (PDF). Ministry of Electronics & Information Technology, Government of India. 2018. 
  NODES
Association 1
Intern 1
mac 3
os 26