Algorithmic Bias Dalam Restorative Justice: Ancaman Bagi Marginal
DOI:
https://doi.org/10.32528/nms.v4i3.756Keywords:
Bias Algoritmik, Keadilan Restoratif, Kelompok Marginal, Kecerdasan Buatan, Hukum Pidana IndonesiaAbstract
Integrasi kecerdasan buatan (AI) dalam sistem keadilan restoratif telah membawa paradigma baru sekaligus tantangan kompleks dalam penegakan hukum pidana. Penelitian ini mengkaji secara kritis dampak bias algoritmik terhadap kelompok marginal dalam konteks keadilan restoratif di Indonesia. Dengan menggunakan pendekatan yuridis normatif-kritis dan analisis kualitatif, penelitian ini menganalisis berbagai dokumen hukum, laporan kebijakan, dan studi kasus internasional seperti sistem COMPAS di AS yang terbukti memiliki bias rasial. Hasil penelitian mengungkap beberapa temuan krusial: pertama, algoritma cenderung mereproduksi ketidakadilan struktural yang tertanam dalam data historis; kedua, implementasi sistem prediktif seperti SPPT-TI di Indonesia berpotensi memperparah ketimpangan tanpa mekanisme pengawasan yang memadai; ketiga, prinsip-prinsip dasar keadilan restoratif seperti partisipasi dan kesetaraan terancam tergeser oleh logika teknis yang kaku. Penelitian ini menawarkan rekomendasi kebijakan komprehensif yang meliputi: (1) audit etik berkala terhadap sistem algoritma, (2) pengembangan model hybrid yang memadukan teknologi dengan kearifan lokal, (3) pelatihan etika digital bagi aparat penegak hukum, (4) penguatan regulasi berbasis HAM, serta (5) mekanisme partisipasi publik dalam pengembangan sistem. Temuan penelitian ini tidak hanya relevan bagi pengembangan kebijakan hukum pidana di Indonesia, tetapi juga memberikan kontribusi signifikan dalam diskursus global tentang etika AI dalam sistem peradilan. Penelitian lanjutan diperlukan untuk menguji efektivitas model hybrid dalam konteks lokal yang spesifik.
Downloads
References
Berk, R., Heidari, H., Jabbari, S., Kearns, M., & Roth, A., “Fairness in criminal justice risk assessments: The state of the art.”, University of Pennsylvania Law Review., 2017
Citron, D. K., & Pasquale, F. (2014). The scored society: Due process for automated predictions. Washington Law Review, 89(1), 1-33.
Angwin, J., Larson, J., Mattu, S., & Kirchner, L., “Machine Bias”., Dalam Kirsten Martin., “Ethics of Data and Analytics: Concepts and Cases”., 1st Edition., hlm. 492., Auerbach Publications., 2022., New York. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Creswell, J. and Poth.Cherryl N. “Qualitative Inquiry and Research Design: Choosing Among Five Approaches”., 4th ed., SAGE Publications., 2018., California.
Israel, M. and Hay, I., “Research Ethics for Social Scientists: Between Ethical Conduct and Regulatory Compliance”., SAGE Publications., 2006., London.
Eubanks, V., “Automating inequality: How high-tech tools profile, police, and punish the poor”., St. Martin’s Press., 2017., New York
O'Neil, C., “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”., Crown Publishing., Arizona., 2016.
Clare Garvie., Alvaro Bedoya, and Jonathan Frankle., “The Perpetual Line-Up: Unregulated Police Face Recognition in America”., Georgetown Law, Center on Privacy & Technology, 2016., Washington
United Nations Office on Drugs and Crime (UNODC). (2021). Responsible AI for criminal justice. United Nations.
Amnesty International & Access Now. (2018). The Toronto Declaration on AI and human rights.
Indonesia. (1981). Kitab Undang-Undang Hukum Acara Pidana (UU No. 8 Tahun 1981).
United Nations. (1966). International Covenant on Civil and Political Rights (ICCPR)
.
Peraturan Kejaksaan Agung RI No. 15 Tahun 2020 tentang Penghentian Penuntutan Berdasarkan Keadilan Restoratif.
Peraturan Mahkamah Agung RI No. 1 Tahun 2016 tentang Prosedur Mediasi di Pengadilan.
Downloads
Published
How to Cite
Issue
Section
License
Copyright (c) 2025 Franky Ariyadi

This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.