Tinjauan AI Google menjelaskan idiom yang dibuat-buat dengan omong kosong percaya diri

Bahasa bisa tampak hampir sangat rumit, dengan lelucon di dalam dan idiom kadang -kadang memiliki makna hanya untuk sekelompok kecil orang dan tampak tidak berarti bagi kita semua. Berkat AI generatifBahkan makna yang tidak berarti yang ditemukan minggu ini saat internet meledak seperti ikan trout atas kemampuannya Ikhtisar AI Google Search Untuk mendefinisikan frasa yang belum pernah diucapkan sebelumnya.
Apa, Anda belum pernah mendengar frasa “meledak seperti ikan trout”? Tentu, saya baru saja mengada-ada, tetapi hasil gambaran AI Google mengatakan kepada saya bahwa ini adalah cara sehari-hari untuk mengatakan sesuatu meledak atau menjadi sensasi dengan cepat, “kemungkinan mengacu pada warna dan tanda ikan yang menarik. Tidak, itu tidak masuk akal.
Tren mungkin sudah dimulai Utasdi mana penulis dan penulis skenario Meaghan Wilson Anastasios berbagi apa yang terjadi Ketika dia mencari di “Peanut Butter Platform Heels.” Google mengembalikan hasil yang merujuk pada eksperimen ilmiah (bukan nyata) di mana selai kacang digunakan untuk menunjukkan penciptaan berlian di bawah tekanan tinggi.
Itu pindah ke situs media sosial lainnya, seperti BlueskyDi mana orang -orang berbagi interpretasi Google tentang frasa seperti “Anda tidak bisa menjilat musang dua kali.” Game: Cari novel, frasa tidak masuk akal dengan “makna” di akhir.
Hal -hal bergulir dari sana.
Meme ini menarik karena lebih banyak alasan daripada bantuan komik. Ini menunjukkan seberapa besar model bahasa mungkin membuat jawaban itu suara Benar, bukan salah satu itu adalah benar.
“Mereka dirancang untuk menghasilkan respons yang lancar dan terdengar masuk akal, bahkan ketika inputnya benar-benar tidak masuk akal,” kata Yafang LiAsisten Profesor di Fogelman College of Business and Economics di University of Memphis. “Mereka tidak dilatih untuk memverifikasi kebenaran. Mereka dilatih untuk menyelesaikan kalimat.”
Seperti lem pizza
Makna palsu dari ucapan-ucapan yang dibuat-buat membawa kembali kenangan tentang kisah yang terlalu nyata tentang ikhtisar AI Google yang memberikan jawaban yang sangat salah untuk pertanyaan-pertanyaan dasar-seperti saat itu Disarankan menempatkan lem di pizza untuk membantu tongkat keju.
Tren ini tampaknya setidaknya sedikit lebih tidak berbahaya karena tidak berpusat pada nasihat yang dapat ditindaklanjuti. Maksudku, aku berharap tidak ada yang mencoba menjilat musang sekali, apalagi dua kali. Masalah di baliknya, bagaimanapun, adalah sama – a Model Bahasa Besarmenyukai Google Gemini Di belakang ikhtisar AI, mencoba menjawab pertanyaan Anda dan menawarkan tanggapan yang layak. Bahkan jika apa yang diberikannya adalah omong kosong.
Seorang juru bicara Google mengatakan ikhtisar AI dirancang untuk menampilkan informasi yang didukung oleh hasil web teratas, dan bahwa mereka memiliki tingkat akurasi yang sebanding dengan fitur pencarian lainnya.
“Ketika orang melakukan pencarian yang tidak masuk akal atau ‘false premise’, sistem kami akan mencoba menemukan hasil yang paling relevan berdasarkan konten web terbatas yang tersedia,” kata juru bicara Google. “Ini berlaku untuk pencarian secara keseluruhan, dan dalam beberapa kasus, ikhtisar AI juga akan memicu dalam upaya untuk memberikan konteks yang bermanfaat.”
Kasus khusus ini adalah “kekosongan data,” di mana tidak ada banyak informasi yang relevan yang tersedia untuk permintaan pencarian. Juru bicara itu mengatakan Google sedang bekerja untuk membatasi ketika ikhtisar AI muncul pada pencarian tanpa informasi yang cukup dan mencegah mereka dari memberikan konten yang menyesatkan, menyindir, atau tidak membantu. Google menggunakan informasi tentang pertanyaan seperti ini untuk lebih memahami kapan ikhtisar AI harus dan tidak boleh muncul.
Anda tidak akan selalu mendapatkan definisi yang dibuat-buat jika Anda meminta arti frasa palsu. Saat menyusun judul bagian ini, saya mencari “seperti lem pada pizza yang berarti,” dan itu tidak memicu tinjauan AI.
Masalahnya tampaknya tidak universal di seluruh LLMS. Saya bertanya Chatgpt Untuk arti “Anda tidak bisa menjilat luak dua kali” dan itu memberi tahu saya frasa itu “bukanlah idiom standar, tapi itu pasti suara Seperti jenis pepatah yang unik dan pedesaan yang mungkin digunakan seseorang. “Namun, memang, cobalah untuk menawarkan definisi, pada dasarnya:” Jika Anda melakukan sesuatu yang ceroboh atau memicu bahaya sekali, Anda mungkin tidak bertahan hidup lagi. “
Baca selengkapnya: AI Essentials: 27 cara untuk membuat Gen AI bekerja untuk Anda, menurut para ahli kami
Menarik makna entah dari mana
Fenomena ini adalah contoh yang menghibur kecenderungan LLMS untuk mengada -ada – apa yang disebut AI World “berhalusinasi. “Ketika model AI Gen Halusinat, itu menghasilkan informasi yang terdengar seperti itu bisa masuk akal atau akurat tetapi tidak berakar pada kenyataan.
LLMS adalah “bukan generator fakta,” kata Li, mereka hanya memprediksi bit logis berikutnya berdasarkan pelatihan mereka.
Mayoritas peneliti AI di a survei terbaru melaporkan bahwa mereka meragukan akurasi dan kepercayaan AI akan segera diselesaikan.
Definisi palsu menunjukkan bukan hanya ketidaktepatan tetapi percaya diri Ketidakakuratan LLMS. Ketika Anda meminta seseorang untuk arti frasa seperti “Anda tidak bisa mendapatkan kalkun dari cybertruck,” Anda mungkin berharap mereka mengatakan bahwa mereka belum pernah mendengarnya dan itu tidak masuk akal. LLM sering bereaksi dengan kepercayaan yang sama seolah -olah Anda meminta definisi idiom nyata.
Dalam hal ini, Google mengatakan frasa itu berarti Tesla’s CyberTruck “tidak dirancang atau mampu memberikan kalkun Thanksgiving atau barang serupa lainnya” dan menyoroti “desain futuristik yang berbeda yang tidak kondusif untuk membawa barang -barang tebal.” Membakar.
Tren lucu ini memang memiliki pelajaran yang tidak menyenangkan: jangan percaya semua yang Anda lihat dari chatbot. Itu mungkin membuat barang -barang dari udara tipis, dan itu Tidak perlu menunjukkan itu tidak pasti.
“Ini adalah momen yang sempurna bagi para pendidik dan peneliti untuk menggunakan skenario ini untuk mengajari orang -orang bagaimana maknanya dihasilkan dan bagaimana AI bekerja dan mengapa itu penting,” kata Li. “Pengguna harus selalu tetap skeptis dan memverifikasi klaim.”
Berhati -hatilah dengan apa yang Anda cari
Karena Anda tidak dapat mempercayai LLM untuk bersikap skeptis atas nama Anda, Anda perlu mendorongnya untuk mengambil apa yang Anda katakan dengan sebutir garam.
“Ketika pengguna memasukkan prompt, model hanya mengasumsikan itu valid dan kemudian hasil untuk menghasilkan jawaban yang paling akurat untuk itu,” kata Li.
Solusinya adalah memperkenalkan skeptisisme di prompt Anda. Jangan meminta arti frasa atau idiom yang tidak dikenal. Tanyakan apakah itu nyata. Li menyarankan Anda bertanya, “Apakah ini idiom nyata?”
“Itu dapat membantu model untuk mengenali frasa alih -alih hanya menebak,” katanya.