Algorithmic Bias Dalam Restorative Justice: Ancaman Bagi Marginal

Authors

  • Franky Ariyadi Universitas Muhammadiyah Tangerang

DOI:

https://doi.org/10.32528/nms.v4i3.756

Keywords:

Bias Algoritmik, Keadilan Restoratif, Kelompok Marginal, Kecerdasan Buatan, Hukum Pidana Indonesia

Abstract

Integrasi kecerdasan buatan (AI) dalam sistem keadilan restoratif telah membawa paradigma baru sekaligus tantangan kompleks dalam penegakan hukum pidana. Penelitian ini mengkaji secara kritis dampak bias algoritmik terhadap kelompok marginal dalam konteks keadilan restoratif di Indonesia. Dengan menggunakan pendekatan yuridis normatif-kritis dan analisis kualitatif, penelitian ini menganalisis berbagai dokumen hukum, laporan kebijakan, dan studi kasus internasional seperti sistem COMPAS di AS yang terbukti memiliki bias rasial. Hasil penelitian mengungkap beberapa temuan krusial: pertama, algoritma cenderung mereproduksi ketidakadilan struktural yang tertanam dalam data historis; kedua, implementasi sistem prediktif seperti SPPT-TI di Indonesia berpotensi memperparah ketimpangan tanpa mekanisme pengawasan yang memadai; ketiga, prinsip-prinsip dasar keadilan restoratif seperti partisipasi dan kesetaraan terancam tergeser oleh logika teknis yang kaku. Penelitian ini menawarkan rekomendasi kebijakan komprehensif yang meliputi: (1) audit etik berkala terhadap sistem algoritma, (2) pengembangan model hybrid yang memadukan teknologi dengan kearifan lokal, (3) pelatihan etika digital bagi aparat penegak hukum, (4) penguatan regulasi berbasis HAM, serta (5) mekanisme partisipasi publik dalam pengembangan sistem. Temuan penelitian ini tidak hanya relevan bagi pengembangan kebijakan hukum pidana di Indonesia, tetapi juga memberikan kontribusi signifikan dalam diskursus global tentang etika AI dalam sistem peradilan. Penelitian lanjutan diperlukan untuk menguji efektivitas model hybrid dalam konteks lokal yang spesifik.

Downloads

Download data is not yet available.

References

Berk, R., Heidari, H., Jabbari, S., Kearns, M., & Roth, A., “Fairness in criminal justice risk assessments: The state of the art.”, University of Pennsylvania Law Review., 2017

Citron, D. K., & Pasquale, F. (2014). The scored society: Due process for automated predictions. Washington Law Review, 89(1), 1-33.

Angwin, J., Larson, J., Mattu, S., & Kirchner, L., “Machine Bias”., Dalam Kirsten Martin., “Ethics of Data and Analytics: Concepts and Cases”., 1st Edition., hlm. 492., Auerbach Publications., 2022., New York. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Creswell, J. and Poth.Cherryl N. “Qualitative Inquiry and Research Design: Choosing Among Five Approaches”., 4th ed., SAGE Publications., 2018., California.

Israel, M. and Hay, I., “Research Ethics for Social Scientists: Between Ethical Conduct and Regulatory Compliance”., SAGE Publications., 2006., London.

Eubanks, V., “Automating inequality: How high-tech tools profile, police, and punish the poor”., St. Martin’s Press., 2017., New York

O'Neil, C., “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”., Crown Publishing., Arizona., 2016.

Clare Garvie., Alvaro Bedoya, and Jonathan Frankle., “The Perpetual Line-Up: Unregulated Police Face Recognition in America”., Georgetown Law, Center on Privacy & Technology, 2016., Washington

United Nations Office on Drugs and Crime (UNODC). (2021). Responsible AI for criminal justice. United Nations.

Amnesty International & Access Now. (2018). The Toronto Declaration on AI and human rights.

Indonesia. (1981). Kitab Undang-Undang Hukum Acara Pidana (UU No. 8 Tahun 1981).

United Nations. (1966). International Covenant on Civil and Political Rights (ICCPR)

.

Peraturan Kejaksaan Agung RI No. 15 Tahun 2020 tentang Penghentian Penuntutan Berdasarkan Keadilan Restoratif.

Peraturan Mahkamah Agung RI No. 1 Tahun 2016 tentang Prosedur Mediasi di Pengadilan.

Downloads

Published

2025-05-21

How to Cite

Ariyadi, F. . (2025). Algorithmic Bias Dalam Restorative Justice: Ancaman Bagi Marginal. National Multidisciplinary Sciences, 4(3), 148–158. https://doi.org/10.32528/nms.v4i3.756