Internasional

Pengacara Australia meminta maaf atas kesalahan yang dihasilkan AI dalam kasus pembunuhan

Melbourne, Australia – Seorang pengacara senior di Australia telah meminta maaf kepada hakim karena mengajukan pengajuan dalam kasus pembunuhan yang mencakup kutipan palsu dan penilaian kasus yang tidak ada yang dihasilkan oleh kecerdasan buatan.

Kesalahan di Mahkamah Agung Negara Bagian Victoria adalah yang lain dalam litani kecelakaan AI telah menyebabkan sistem peradilan di seluruh dunia.

Pengacara pembela Rishi Nathwani, yang memegang gelar hukum bergengsi dari penasihat King, mengambil “tanggung jawab penuh” untuk mengajukan informasi yang salah dalam pengajuan dalam kasus seorang remaja yang didakwa dengan pembunuhan, menurut dokumen pengadilan yang dilihat oleh Associated Press pada hari Jumat.

“Kami sangat menyesal dan malu atas apa yang terjadi,” kata Nathwani kepada Hakim James Elliott pada hari Rabu, atas nama tim pertahanan.

Itu Kesalahan yang dihasilkan AI menyebabkan keterlambatan 24 jam dalam menyelesaikan kasus yang diharapkan Elliott untuk menyimpulkan pada hari Rabu. Elliott memutuskan pada hari Kamis bahwa klien Nathwani, yang tidak dapat diidentifikasi karena dia adalah anak di bawah umur, tidak bersalah atas pembunuhan karena gangguan mental.

“Dengan risiko meremehkan, cara di mana peristiwa -peristiwa ini terjadi tidak memuaskan,” kata Elliott kepada pengacara, Kamis.

“Kemampuan pengadilan untuk mengandalkan keakuratan pengajuan yang dibuat oleh penasihat hukum merupakan hal mendasar bagi administrasi peradilan yang tepat,” tambah Elliott.

Pengajuan palsu termasuk kutipan buatan dari pidato ke legislatif negara bagian dan kutipan kasus yang tidak ada yang konon dari Mahkamah Agung.

Kesalahan ditemukan oleh rekan Elliott, yang tidak dapat menemukan kasus dan meminta pengacara pembela memberikan salinan.

Para pengacara mengakui kutipan “tidak ada” dan bahwa pengajuan itu berisi “kutipan fiktif,” kata dokumen pengadilan.

Para pengacara menjelaskan bahwa mereka memeriksa bahwa kutipan awal akurat dan salah diasumsikan yang lain juga akan benar.

Pengajuan juga dikirim ke jaksa Daniel Porceddu, yang tidak memeriksa akurasi mereka.

Hakim mencatat bahwa Mahkamah Agung merilis pedoman tahun lalu tentang bagaimana pengacara menggunakan AI.

“Tidak dapat diterima untuk kecerdasan buatan untuk digunakan kecuali produk dari penggunaan itu secara independen dan menyeluruh diverifikasi,” kata Elliott.

Dokumen pengadilan tidak mengidentifikasi sistem intelijen buatan generatif yang digunakan oleh pengacara.

Dalam kasus yang sebanding di Amerika Serikat pada tahun 2023, seorang hakim federal memberlakukan denda $ 5.000 pada dua pengacara dan firma hukum setelahnya Chatgpt disalahkan atas pengajuan penelitian hukum fiktif mereka dalam klaim cedera penerbangan.

Hakim P. Kevin Castel mengatakan mereka bertindak dengan itikad buruk. Tetapi dia memuji permintaan maaf mereka dan langkah -langkah perbaikan yang diambil dalam menjelaskan mengapa sanksi yang lebih keras tidak diperlukan untuk memastikan mereka atau orang lain tidak akan lagi membiarkan alat intelijen buatan meminta mereka untuk menghasilkan sejarah hukum palsu dalam argumen mereka.

Belakangan tahun itu, putusan pengadilan yang lebih fiktif yang ditemukan oleh AI dikutip dalam surat -surat hukum yang diajukan oleh pengacara untuk Michael Cohen, mantan pengacara pribadi untuk Presiden AS Donald Trump. Cohen menyalahkan, mengatakan dia tidak menyadari bahwa alat Google yang dia gunakan untuk penelitian hukum juga mampu disebut halusinasi AI.

Sumber

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button