Bisnis

Claude memalsukan kutipan hukum. Seorang pengacara harus membersihkannya.

Seorang pengacara yang membela antropik harus membersihkan setelah bot AI perusahaan, menyebutnya “kesalahan yang memalukan dan tidak disengaja.”

Dalam gugatan hak cipta atas penggunaan lirik musik Anthropic, tim hukum perusahaan menggunakan asisten AI -nya, Claude, untuk membantu menyusun kutipan dalam laporan ahli.

Claude memberikan judul publikasi yang benar, tahun publikasi, dan tautan ke sumber yang disediakan, tetapi “judul yang tidak akurat dan penulis yang salah,” kata pengacara Anthropic dalam pengajuan pengadilan pada hari Kamis.

Pengacara Ivana Dukanovic, dari Latham & Watkins, mengatakan “pemeriksaan kutipan manual” timnya gagal menangkap kesalahan dan “kesalahan kata -kata tambahan yang diperkenalkan dalam kutipan selama proses pemformatan menggunakan Claude.ai.”

“Ini adalah kesalahan kutipan yang jujur ​​dan bukan pembuatan otoritas,” tulis Dukanovic.

Penerbit Musik Universal Music Group, Concord, dan Abkco menggugat Antropik, mengatakan perusahaan menggunakan lirik yang dilindungi hak cipta untuk melatih Claude. Kasus ini merupakan bagian dari gelombang pertempuran hukum antara pemegang hak cipta dan perusahaan AI.

Pengacara penerbit mengatakan kepada pengadilan pada hari Selasa bahwa ilmuwan data antropik Olivia Chen mungkin telah menggunakan sumber palsu yang dihasilkan oleh AI untuk mendukung argumen perusahaan, Reuters melaporkan.

Pada hari Kamis, Dukanovic menjawab bahwa Chen mengutip artikel nyata dari jurnal “The American Statistician,” tetapi Claude telah membuat judul dan penulis.

Antropik dan Dukanovic tidak menanggapi permintaan komentar.

AI di dunia hukum

Ini bukan pertama kalinya alat AI mengangkat alis di dunia hukum.

Pada bulan Maret, seorang pria tanpa pengacara mengerahkan avatar yang dihasilkan AI untuk memperdebatkan kasus banding sipilnya di ruang sidang New York. Panel juri yang terpana dengan cepat menembaknya.

Halusinasi AI juga mendarat pengacara di air panas. Seorang pengacara dipecat dari Baker Law Group setelah ia menggunakan chatgpt untuk menghasilkan kutipan hukum, yang ternyata palsu.

Mantan fixer Donald Trump, Michael Cohen, juga mendapat masalah ketika dia menggunakan AI Chatbot Google, Bard, untuk menemukan kasus hukum untuk mendukung argumennya. Chatbot membuat kasus, dan pengacaranya mengajukannya di pengadilan tanpa memeriksa.

Daniel Shin, asisten direktur penelitian di Pusat Teknologi Hukum dan Pengadilan di William & Mary Law School Virginia, mengatakan kepada Business Insider dalam sebuah laporan bulan lalu bahwa hakim khawatir tentang penggunaan AI di pengadilan karena halusinasi.

Pengadilan telah menunjukkan bahwa mereka tidak akan mentolerir penggunaan alat AI yang tidak tepat, kata Shin.

Namun, pengacara diberitahu bahwa mereka harus mulai mengadopsi AI.

Pada konferensi teknologi hukum pada bulan Maret, pengacara didesak untuk merangkul AI atau berisiko tertinggal, lapor BI Melia Russell.

“Pengacara perlu bangun,” Todd Itami, seorang pengacara di perusahaan pertahanan hukum besar Covington & Burling, mengatakan, menambahkan bahwa belajar menggunakan kecerdasan buatan adalah “penting” untuk keberhasilan mereka.

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button