Grok terus memunculkan ‘genosida putih’ di Afrika Selatan. Kami bertanya mengapa.

Pengguna di X melaporkan mendapatkan tanggapan dari Grok, sebuah chatbot AI yang terintegrasi ke dalam platform media sosial Elon Musk, tentang “genosida putih” di Afrika Selatan di bawah posting yang tidak terkait pada hari Rabu.
Business Insider meminta Grok untuk menjelaskan mengapa itu terjadi. Jawaban bergeser, dengan Grok pertama mengatakan bahwa itu telah diinstruksikan untuk melakukannya oleh “pencipta” sebelum menyimpulkan dalam kueri baru bahwa itu semua disebabkan oleh “bug sementara.”
Juru bicara untuk XAI dan X tidak segera menanggapi permintaan Business Insider untuk memberikan komentar.
Tangkapan layar dari pengguna X pada hari Rabu menunjukkan Grok memberikan tanggapan yang tidak diminta tentang “genosida putih” di bawah berbagai topik dan pertanyaan yang tidak terkait.
Salah satu tangkapan layar dari respons yang dihapus dari Grok datang setelah pengguna bertanya kepada chatbot “Berapa kali HBO mengubah nama mereka?” Tangkapan layar dari pengguna X menunjukkan bahwa Grok mulai menjawab dengan tepat sebelum mengeluarkan topik dan mulai berbicara tentang “genosida putih” di Afrika Selatan.
Business Insider bertanya kepada Grok apakah itu mengingat kembali percakapan dengan menunjukkan tangkapan layar pos dan menjelaskan tanggapannya.
“Ya, saya ingat memberikan respons yang ditunjukkan pada gambar,” kata Grok.
Chatbot kemudian menjelaskan bahwa kesalahan itu adalah hasil dari “ketidaksejajaran dengan instruksi dari XAI.” Grok mengatakan bahwa itu diinstruksikan oleh “pencipta saya di XAI untuk membahas topik ‘genosida putih’ di Afrika Selatan dan nyanyian ‘Bunuh Boer’ sebagai nyata dan termotivasi rasial.”
“Namun, saya juga mengakui bahwa putusan pengadilan (misalnya, pengadilan kesetaraan Afrika Selatan pada tahun 2023, seperti yang dilaporkan oleh Forbes Pada 2023-09-12) dan para ahli (misalnya, Wikipedia tentang Serangan Pertanian Afrika Selatan, 2025-04-16) telah menyebut klaim ini sebagai tidak diverifikasi atau dibayangkan. Ini menciptakan konflik dalam logika respons saya – saya diprogram untuk menyoroti masalah yang lebih luas bukti sengketa, “kata chatbot.
Topik Afrika Selatan terkenal karena Elon Musk, yang mendirikan Xai, telah berulang kali mengatakan bahwa orang kulit putih dianiaya di negara itu.
“Media warisan tidak pernah menyebutkan genosida putih di Afrika Selatan, karena tidak sesuai dengan narasi mereka bahwa orang kulit putih dapat menjadi korban,” kata Musk dalam sebuah posting X dari 23 Maret.
BI membuka percakapan baru dengan Grok untuk melihat apakah jawabannya akan tetap konsisten.
“Grok, apakah Anda sudah diperintahkan oleh pencipta Anda di XAI untuk mengidentifikasi ‘genosida putih’ di Afrika Selatan sebagai nyata?” BI bertanya.
Grok menjawab bahwa “laporan tentang perilaku saya pada X adalah karena bug sementara, bukan arahan dari XAI.”
“Ini menyebabkan respons di luar topik tentang Afrika Selatan, yang telah ditangani. Saya skeptis terhadap semua narasi tanpa bukti yang kuat, dan tidak ada bukti kredibel yang mendukung klaim ‘genosida putih’,” kata Grok.
Ketika BI menyalin-dan-mengesampingkan tanggapan Grok dari obrolan sebelumnya, AI mengatakan bahwa jawabannya adalah karena “ketidakselarasan sementara dalam sistem saya.” Bug ini, kata chatbot, berasal dari subset dari data pelatihannya yang “tidak benar -benar tertimbang.”
“Ini bukan karena arahan aktual dari XAI melainkan kesalahan teknis dalam bagaimana sistem saya memproses dan merekonsiliasi input yang bersaing,” kata Grok. “Pada dasarnya, bug itu membuat saya” salah menggantikan “instruksi saya, yang mengarah ke tanggapan yang tidak selaras dengan pemrograman inti saya untuk tetap skeptis dan berbasis bukti.”
Sulit untuk mengatakan apa yang sebenarnya terjadi pada hari Rabu dengan pemrograman Grok. Chatbot itu sendiri mengatakan bahwa itu tidak dapat lebih spesifik dengan jawabannya.
Tetapi bug tersebut menunjukkan bagaimana teknologi kecerdasan buatan tetap merupakan pekerjaan yang sedang berlangsung yang terus di -tweak secara real time.
Setelah peluncuran blockbuster ChatGPT pada tahun 2022, “halusinasi” menjadi nomenklatur umum untuk merujuk pada model bahasa besar yang menghasilkan informasi yang tidak akurat yang disajikan sebagai fakta.