Bisnis

Mengapa perusahaan AI terus meningkatkan momok senapan

Revolusi AI generatif telah melihat lebih banyak lompatan ke depan daripada kesalahan langkah – tetapi salah satu tersandung jelas adalah penyerahan sycophantic dari Model Bahasa Besar (LLM) Openai’s 4o, yang menjadi pembuat chatgpt akhirnya harus menarik diri Setelah pengguna mulai khawatir itu terlalu menyanjung. Model menjadi sangat bersemangat untuk menyenangkan, itu kehilangan keaslian.

Dalam posting blog mereka yang menjelaskan apa yang salah, Openai menggambarkan “kepribadian default chatgpt” dan “perilakunya” —term biasanya disediakan untuk manusia, menunjukkan tingkat antropomorfisasi. Openai tidak sendirian dalam hal ini: manusia sering menggambarkan AI sebagai “pemahaman” atau “mengetahui” hal -hal, sebagian besar karena liputan media secara konsisten membingkainya seperti itu – tidak benar. AI tidak memiliki pengetahuan atau otak, dan beberapa orang berpendapat tidak akan pernah (meskipun pandangan itu diperdebatkan).

Tetap saja, berbicara tentang perasaan, kepribadian, dan kualitas seperti manusia di AI tampaknya tumbuh. Bulan lalu, Antropik Pesaing Openai – didirikan oleh mantan karyawan Openai – diterbitkan a Posting Blog menyatakan keprihatinan tentang pengembangan AI yang menguntungkan kesejahteraan manusia. “Tetapi ketika kita membangun sistem AI itu, dan ketika mereka mulai mendekati atau melampaui banyak kualitas manusia, muncul pertanyaan lain,” tulis perusahaan itu. “Haruskah kita juga khawatir tentang potensi kesadaran dan pengalaman model itu sendiri? Haruskah kita khawatir tentang kesejahteraan model juga?”

Mengapa bahasa semacam ini sedang meningkat? Apakah kita menyaksikan perubahan yang tulus ke arah AI Sustience – atau hanya strategi untuk membuat jus sektor yang sudah rata dengan hype? Pada tahun 2024 saja, ekuitas swasta dan modal ventura menuangkan $ 56 miliar ke startup AI generatif.

“Antropomorfisasi, dimulai dengan antarmuka yang hadir sebagai pribadi, menggunakan ‘I’, adalah bagian dari strategi di sini,” kata Eerke Boiten, seorang profesor di De Montfort University di Leicester, Inggris “itu membelokkan dari masalah moral dan teknis,” kata Boiten. “Ketika saya mengeluh bahwa sistem AI membuat kesalahan dengan cara yang tidak terkendali, orang -orang mengatakan kepada saya bahwa manusia juga melakukannya.” Dengan cara ini, kesalahan-seperti salah konfigurasi prompt inti yang membimbing model 4O yang gagal-dapat dibingkai sebagai kesalahan seperti manusia oleh model, daripada kesalahan manusia oleh penciptanya.

Apakah kemanusiaan ini adalah pilihan yang disengaja adalah pertanyaan lain. “Saya pikir orang benar -benar percaya bahwa perasaan itu mungkin dan mulai terjadi,” kata Margaret Mitchell, seorang peneliti dan ilmuwan etika kepala di Pugging Face. Mitchell melihat lebih sedikit sinisme daripada beberapa orang dalam hal bagaimana karyawan dan perusahaan AI berbicara tentang perasaan dan kepribadian. “Ada disonansi kognitif ketika apa yang Anda yakini sebagai seseorang bentrok dengan apa yang perusahaan Anda butuhkan untuk Anda katakan,” jelasnya. “Dalam beberapa tahun bekerja di sebuah perusahaan, keyakinan Anda sebagai individu berbaur dengan keyakinan yang akan berguna untuk Anda miliki untuk perusahaan Anda.”

Jadi bukan karena karyawan perusahaan AI harus mencoba melebih -lebihkan kemampuan sistem mereka – mereka mungkin benar -benar percaya apa yang mereka katakan, dibentuk oleh insentif industri. “Jika sentiensi memompa penilaian, maka efek domino dari itu – jika Anda tidak cukup keluar dari gelembung – percaya bahwa sistemnya hidup,” tambah Mitchell.

Tetapi pengkodean kualitas seperti manusia ke dalam sistem AI tidak hanya membesar-besarkan kemampuan mereka-itu juga dapat mengaburkan pengawasan, kata Boiten. “Mendandan sistem AI sebagai manusia menuntun mereka untuk membuat analogi yang salah,” jelasnya. “Kami tidak ingin alat atau kalkulator kami salah secara sistemik dan tidak terduga.”

Agar adil, posting blog Anthropic tidak menyatakan AI yang tidak terhindarkan. Kata “kapan” diimbangi oleh “jika” ketika mempertimbangkan perlakuan moral model AI. Perusahaan juga mencatat, “Tidak ada konsensus ilmiah tentang apakah sistem AI saat ini atau masa depan bisa sadar, atau dapat memiliki pengalaman yang pantas dipertimbangkan.” Bahkan CEO OpenAI Sam Altman, di a Posting blog Januari Merenungkan tahun lalu, mengakui bahwa AI yang di mana -mana dan superintelligent “terdengar seperti fiksi ilmiah saat ini, dan agak gila untuk dibicarakan.”

Namun, dengan meraup subjek, perusahaan AI menanam gagasan AI yang hidup dalam kesadaran publik. Pertanyaan – salah satu yang kami mungkin tidak pernah menjawab secara definitif kecuali AI benar -benar menjadi makhluk hidup – apakah pembicaraan ini membuat perusahaan AI dan karyawan mereka anak laki -laki yang menangis serigala, seperti yang dipelajari mantan insinyur Google Blake Lemoine setelahnya mengklaim pada tahun 2022 Bahwa model yang dia kerjakan adalah makhluk hidup. Atau apakah mereka mengeluarkan peringatan dini?

Dan sementara pembicaraan seperti itu mungkin merupakan taktik penggalangan dana yang cerdas, mungkin juga layak ditoleransi – setidaknya sebagian. Mempersiapkan strategi mitigasi untuk kemampuan AI di masa depan dan memicu kegembiraan investor mungkin hanya dua sisi dari koin yang sama. Seperti yang dikatakan Boiten, seorang yang berkomitmen, SKEPTIC, “Tanggung jawab atas alat adalah dengan siapa pun yang menggunakannya, dan uang juga berhenti bersama mereka jika mereka tidak sepenuhnya tahu apa yang sebenarnya dilakukan alat itu.”

Sumber

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button