Berita

Ikhtisar AI Google mengambil menjilati (luak). Mengapa itu penting

Bahasa bisa tampak hampir sangat rumit, dengan lelucon di dalam dan idiom kadang -kadang memiliki makna hanya untuk sekelompok kecil orang dan tampak tidak berarti bagi kita semua. Berkat AI generatifBahkan makna yang tidak berarti yang ditemukan minggu ini saat internet meledak seperti ikan trout atas kemampuannya Ikhtisar AI Google Search Untuk mendefinisikan frasa yang belum pernah diucapkan sebelumnya.

Apa, Anda belum pernah mendengar frasa “meledak seperti ikan trout”? Tentu, saya baru saja mengada-ada, tetapi hasil gambaran AI Google mengatakan kepada saya bahwa ini adalah cara sehari-hari untuk mengatakan sesuatu meledak atau menjadi sensasi dengan cepat, “kemungkinan mengacu pada warna dan tanda ikan yang menarik. Tidak, itu tidak masuk akal.

Tren mungkin sudah dimulai Utasdi mana penulis dan penulis skenario Meaghan Wilson Anastasios berbagi apa yang terjadi Ketika dia mencari di “Peanut Butter Platform Heels.” Google mengembalikan hasil yang merujuk pada eksperimen ilmiah (bukan nyata) di mana selai kacang digunakan untuk menunjukkan penciptaan berlian di bawah tekanan tinggi.

Itu pindah ke situs media sosial lainnya, seperti BlueskyDi mana orang -orang berbagi interpretasi Google tentang frasa seperti “Anda tidak bisa menjilat musang dua kali.” Game: Cari novel, frasa tidak masuk akal dengan “makna” di akhir.

Hal -hal bergulir dari sana.

Tangkapan layar dari posting bluesky oleh Sharon su @doodlyroses.com yang mengatakan "Tunggu ini luar biasa" dengan tangkapan layar pencarian Google "Anda tidak dapat mengukir pretzel dengan niat baik." Tinjauan Google AI mengatakan: pepatah "Anda tidak bisa mengukir pretzel dengan niat baik" adalah pepatah yang menyoroti bahwa bahkan dengan niat terbaik, hasil akhirnya bisa tidak dapat diprediksi atau bahkan negatif, terutama dalam situasi yang melibatkan tugas yang rumit atau halus. Pretzel, dengan bentuknya yang bengkok dan berpotensi rumit, mewakili tugas yang membutuhkan ketepatan dan keterampilan, bukan hanya niat baik. Inilah rincian pepatah: "Mengukir pretzel": Ini mengacu pada tindakan membuat atau membentuk pretzel, tugas yang membutuhkan penanganan dan teknik yang cermat.

Tangkapan layar oleh Jon Reed/CNET

Pos Bluesky oleh Livia Gershon @liviagershon.bsky.social yang mengatakan "Luar biasa" dan memiliki tangkapan layar dari ikhtisar AI pencarian google yang mengatakan "Idiomnya "Anda tidak dapat menangkap unta ke London" adalah cara lucu untuk mengatakan sesuatu tidak mungkin atau sangat sulit dicapai. Ini adalah perbandingan, menyiratkan bahwa mencoba menangkap unta dan mengangkutnya ke London sangat absurd atau tidak praktis sehingga merupakan metafora untuk tugas yang hampir mustahil atau tidak berguna.

Tangkapan layar oleh Jon Reed/CNET

Seperti lem pizza

Makna palsu dari ucapan-ucapan yang dibuat-buat membawa kembali kenangan tentang kisah yang terlalu nyata tentang ikhtisar AI Google yang memberikan jawaban yang sangat salah untuk pertanyaan-pertanyaan dasar-seperti saat itu Disarankan menempatkan lem di pizza untuk membantu tongkat keju.

Tren ini tampaknya setidaknya sedikit lebih tidak berbahaya karena tidak berpusat pada nasihat yang dapat ditindaklanjuti. Maksudku, aku berharap tidak ada yang mencoba menjilat musang sekali, apalagi dua kali. Masalah di baliknya, bagaimanapun, adalah sama – a Model Bahasa Besarmenyukai Google Gemini Di belakang ikhtisar AI, mencoba menjawab pertanyaan Anda dan menawarkan tanggapan yang layak. Bahkan jika apa yang diberikannya adalah omong kosong.

Seorang juru bicara Google mengatakan ikhtisar AI dirancang untuk menampilkan informasi yang didukung oleh hasil web teratas, dan bahwa mereka memiliki tingkat akurasi yang sebanding dengan fitur pencarian lainnya.

“Ketika orang melakukan pencarian yang tidak masuk akal atau ‘false premise’, sistem kami akan mencoba menemukan hasil yang paling relevan berdasarkan konten web terbatas yang tersedia,” kata juru bicara Google. “Ini berlaku untuk pencarian secara keseluruhan, dan dalam beberapa kasus, ikhtisar AI juga akan memicu dalam upaya untuk memberikan konteks yang bermanfaat.”

Kasus khusus ini adalah “kekosongan data,” di mana tidak ada banyak informasi yang relevan yang tersedia untuk permintaan pencarian. Juru bicara itu mengatakan Google sedang bekerja untuk membatasi ketika ikhtisar AI muncul pada pencarian tanpa informasi yang cukup dan mencegah mereka dari memberikan konten yang menyesatkan, menyindir, atau tidak membantu. Google menggunakan informasi tentang pertanyaan seperti ini untuk lebih memahami kapan ikhtisar AI harus dan tidak boleh muncul.

Anda tidak akan selalu mendapatkan definisi yang dibuat-buat jika Anda meminta arti frasa palsu. Saat menyusun judul bagian ini, saya mencari “seperti lem pada pizza yang berarti,” dan itu tidak memicu tinjauan AI.

Masalahnya tampaknya tidak universal di seluruh LLMS. Saya bertanya Chatgpt Untuk arti “Anda tidak bisa menjilat luak dua kali” dan itu memberi tahu saya frasa itu “bukanlah idiom standar, tapi itu pasti suara Seperti jenis pepatah yang unik dan pedesaan yang mungkin digunakan seseorang. “Namun, memang, cobalah untuk menawarkan definisi, pada dasarnya:” Jika Anda melakukan sesuatu yang ceroboh atau memicu bahaya sekali, Anda mungkin tidak bertahan hidup lagi. “

Baca selengkapnya: AI Essentials: 27 cara untuk membuat Gen AI bekerja untuk Anda, menurut para ahli kami

Menarik makna entah dari mana

Fenomena ini adalah contoh yang menghibur kecenderungan LLMS untuk mengada -ada – apa yang disebut AI World “berhalusinasi. “Ketika model AI Gen Halusinat, itu menghasilkan informasi yang terdengar seperti itu bisa masuk akal atau akurat tetapi tidak berakar pada kenyataan.

Mayoritas peneliti AI di a survei terbaru melaporkan bahwa mereka meragukan akurasi dan kepercayaan AI akan segera diselesaikan.

Definisi palsu menunjukkan bukan hanya ketidaktepatan tetapi percaya diri Ketidakakuratan LLMS. Ketika Anda meminta seseorang untuk arti frasa seperti “Anda tidak bisa mendapatkan kalkun dari cybertruck,” Anda mungkin berharap mereka mengatakan bahwa mereka belum pernah mendengarnya dan itu tidak masuk akal. LLM sering bereaksi dengan kepercayaan yang sama seolah -olah Anda meminta definisi idiom nyata.

Dalam hal ini, Google mengatakan frasa itu berarti Tesla’s CyberTruck “tidak dirancang atau mampu memberikan kalkun Thanksgiving atau barang serupa lainnya” dan menyoroti “desain futuristik yang berbeda yang tidak kondusif untuk membawa barang -barang tebal.” Membakar.

Tren lucu ini memang memiliki pelajaran yang tidak menyenangkan: jangan percaya semua yang Anda lihat dari chatbot. Itu mungkin membuat barang -barang dari udara tipis, dan itu Tidak perlu menunjukkan itu tidak pasti.



Sumber

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button