Bisnis

Menjadi kurang tabu untuk berbicara tentang AI yang ‘sadar’

Tiga tahun lalu, menunjukkan AI adalah “hidup” adalah salah satu cara untuk dipecat di dunia teknologi. Sekarang, perusahaan teknologi lebih terbuka untuk melakukan percakapan itu.

Minggu ini, AI Startup Anthropic meluncurkan inisiatif penelitian baru untuk mengeksplorasi apakah model suatu hari mungkin mengalami “kesadaran,” sementara seorang ilmuwan di Google Deepmind menggambarkan model saat ini sebagai “entitas seperti pikiran yang eksotis.”

Ini adalah pertanda berapa banyak AI yang telah maju sejak tahun 2022, ketika Blake Lemoine dipecat dari pekerjaannya sebagai insinyur Google setelah mengklaim chatbot perusahaan, LAMDA, telah menjadi makhluk hidup. Lemoine mengatakan sistem itu takut ditutup dan menggambarkan dirinya sebagai pribadi. Google menyebut klaimnya “sepenuhnya tidak berdasar,” dan komunitas AI bergerak cepat untuk mematikan pembicaraan.

Baik antropik maupun ilmuwan Google tidak sejauh Lemoine.

Antropik, startup di belakang Claude, mengatakan pada hari Kamis Blog Posting bahwa ia berencana untuk menyelidiki apakah model suatu hari nanti mungkin memiliki pengalaman, preferensi, atau bahkan kesusahan.

“Haruskah kita juga khawatir tentang potensi kesadaran dan pengalaman model itu sendiri? Haruskah kita khawatir kesejahteraan modeljuga? “Tanya perusahaan.

Kyle Fish, seorang ilmuwan penyelarasan di antropik yang meneliti kesejahteraan AI, mengatakan dalam a video Dirilis pada hari Kamis bahwa lab tidak mengklaim Claude sadar, tetapi intinya adalah bahwa tidak lagi bertanggung jawab untuk menganggap jawabannya jelas tidak.

Dia mengatakan ketika sistem AI menjadi lebih canggih, perusahaan harus “menganggap serius kemungkinan” bahwa mereka “mungkin berakhir dengan beberapa bentuk kesadaran di sepanjang jalan.”

Dia menambahkan: “Ada pertanyaan teknis dan filosofis yang sangat kompleks, dan kita pada tahap awal mencoba membungkus kepala kita di sekitar mereka.”

Fish mengatakan para peneliti di antropik memperkirakan Claude 3.7 memiliki antara 0,15% dan 15% kemungkinan sadar. Lab sedang mempelajari apakah model menunjukkan preferensi atau keengganan, dan menguji mekanisme opt-out yang dapat membiarkannya menolak tugas-tugas tertentu.

Pada bulan Maret, CEO antropik Dario Amodei melayang gagasan memberi sistem AI masa depan tombol “Saya berhenti pekerjaan ini” – bukan karena mereka hidup, katanya, tetapi sebagai cara untuk mengamati pola penolakan yang mungkin menandakan ketidaknyamanan atau ketidaksejajaran.

Sementara itu, di Google DeepMind, ilmuwan utama Murray Shanahan telah mengusulkan bahwa kita mungkin perlu memikirkan kembali konsep kesadaran sama sekali.

“Mungkin kita perlu membengkok Podcast, diterbitkan Kamis. “Kamu tidak bisa berada di dunia dengan mereka seperti yang kamu bisa dengan anjing atau gurita – tapi itu tidak berarti tidak ada apa -apa di sana.”

Google tampaknya menganggap serius ide itu. Daftar pekerjaan baru -baru ini mencari a “Pasca-Amu” Ilmuwan Penelitian, dengan tanggung jawab yang meliputi mempelajari kesadaran mesin.

‘Kami mungkin juga memberikan hak untuk kalkulator’

Tidak semua orang yakin, dan banyak peneliti mengakui bahwa sistem AI adalah mimik yang sangat baik yang dapat dilatih untuk bertindak sadar bahkan jika tidak.

“Kami dapat memberi mereka penghargaan karena mengatakan bahwa mereka tidak memiliki perasaan,” kata Jared Kaplan, kepala sains antropik, dalam sebuah wawancara dengan New York Times minggu ini.

Kaplan memperingatkan bahwa menguji sistem AI untuk kesadaran secara inheren sulit, justru karena mereka sangat pandai meniru.

Gary Marcus, seorang ilmuwan kognitif dan kritik lama terhadap hype dalam industri AI, mengatakan kepada orang dalam bisnis bahwa ia percaya fokus pada kesadaran AI lebih tentang branding daripada sains.

“Betapa perusahaan seperti Anthropic benar -benar mengatakan ‘lihat betapa pintar model kami – mereka sangat pintar sehingga mereka layak mendapatkan hak,'” katanya. “Kami mungkin juga memberikan hak untuk kalkulator dan spreadsheet – yang (tidak seperti model bahasa) tidak pernah mengarang.”

Namun, Fish mengatakan topik itu hanya akan menjadi lebih relevan karena orang berinteraksi dengan AI dalam lebih banyak cara – di tempat kerja, online, atau bahkan secara emosional.

“Ini hanya akan menjadi pertanyaan yang semakin menonjol apakah model -model ini memiliki pengalaman sendiri – dan jika demikian, jenis apa,” katanya.

Antropik dan Google DeepMind tidak segera menanggapi permintaan komentar.

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button