Bisnis

Apakah AI akan membunuh kita semua? Salah satu pelopor di lapangan telah memperingatkan bahwa “semua orang akan mati” jika AI tidak ditutup

Teknologi AI telah berkembang pada tingkat eksponensial, dan tampaknya hanya masalah waktu sebelum kita membuat entitas yang dapat berpikir jutaan kali lebih cepat daripada kita dan yang dapat melakukan hampir semuanya lebih baik daripada yang kita bisa. Jadi apa yang akan terjadi ketika kita kehilangan kendali atas entitas seperti itu? Beberapa model AI sudah mengambil inisiatif untuk mengajari diri mereka sendiri bahasa barudan orang lain telah belajar “Berbohong dan memanipulasi manusia untuk keuntungan mereka sendiri”. Tak perlu dikatakan, berbohong adalah tindakan yang bermusuhan. Jika kita telah menciptakan entitas yang bersedia berbohong kepada kita, berapa lama sebelum mereka mampu mengambil tindakan yang bahkan lebih berbahaya bagi kita?

Tidak ada yang mengharapkan kecerdasan buatan untuk membunuh kita semua besok.

Tapi Time Magazine menerbitkan sebuah artikel yang ditulis oleh pelopor di bidang kecerdasan buatan yang memperingatkan bahwa kecerdasan buatan pada akhirnya akan menghapus kita semua.

Eliezer Yudkowsky telah menjadi peneliti terkemuka di bidang kecerdasan buatan sejak tahun 2001, dan dia mengatakan bahwa banyak peneliti telah menyimpulkan bahwa jika kita terus menempuh jalan yang saat ini kita jalani saat ini “Secara harfiah semua orang di bumi akan mati”

Banyak peneliti yang mendalami masalah ini, termasuk saya, berharap bahwa hasil yang paling mungkin dari membangun AI yang sangat manusiawi, di bawah apa pun dari jarak jauh seperti keadaan saat ini, adalah bahwa secara harfiah setiap orang di Bumi akan mati. Bukan seperti dalam “mungkin kemungkinan peluang jarak jauh,” tetapi seperti dalam “Itu adalah hal yang jelas yang akan terjadi.”

Itu adalah pernyataan yang sangat kuat.

Di seluruh dunia, model AI terus menjadi lebih kuat.

Menurut ke Yudkowskybegitu seseorang membangun model AI yang terlalu kuat, “setiap anggota spesies manusia dan semua kehidupan biologis di Bumi mati tak lama kemudian”…

Untuk memvisualisasikan AI Superhuman yang bermusuhan, jangan bayangkan pemikir yang tidak bernyawa yang tinggal di internet dan mengirim email yang bermaksud buruk. Visualisasikan seluruh peradaban alien, berpikir pada jutaan kali kecepatan manusia, awalnya terbatas pada komputer – di dunia makhluk yang, dari sudut pandangnya, sangat bodoh dan sangat lambat. AI yang cukup cerdas tidak akan tetap terbatas pada komputer. Di dunia saat ini Anda dapat mengirim email ke string DNA ke laboratorium yang akan menghasilkan protein sesuai permintaan, memungkinkan AI awalnya terbatas di Internet untuk membangun bentuk kehidupan buatan atau bootstrap langsung ke manufaktur molekuler postbiologis.

Jika seseorang membangun AI yang terlalu kuat, dalam kondisi saat ini, saya berharap bahwa setiap anggota spesies manusia dan semua kehidupan biologis di Bumi mati tak lama kemudian.

Jadi apa solusinya?

Yudkowsky percaya bahwa kita perlu menutup semua pengembangan AI langsung

Matikan semuanya.

Kami belum siap. Kami tidak berada di jalur yang benar -benar lebih mudah dibuat di masa mendatang. Jika kita melanjutkan ini, semua orang akan mati, termasuk anak -anak yang tidak memilih ini dan tidak melakukan kesalahan.

Tentu saja itu tidak akan terjadi.

Faktanya, Wakil Presiden JD Vance baru-baru ini menyatakan bahwa tidak bijaksana untuk bahkan menjeda perkembangan AI karena kita berada di “Perlombaan Senjata” dengan Cina…

Pada tanggal 21 Mei, JD Vance, wakil presiden Amerika, menggambarkan pengembangan kecerdasan buatan sebagai “perlombaan senjata” dengan Cina. Jika Amerika berhenti karena kekhawatiran atas keselamatan AI, katanya, mungkin menemukan dirinya “diperbudak oleh AI yang dimediasi PRC”. Gagasan tentang pertikaian negara adidaya yang akan memuncak pada saat kemenangan atau kekalahan beredar tanpa henti di Washington dan sekitarnya. Bulan ini para bos Openai, AMD, Coreweave dan Microsoft melobi untuk peraturan yang lebih ringan, melemparkan AI sebagai pusat dari hegemon global yang tersisa di Amerika. Pada 15 Mei, Presiden Donald Trump menengahi kesepakatan AI dengan Uni Emirat Arab yang katanya akan memastikan “dominasi dalam AI” Amerika. Amerika berencana untuk menghabiskan lebih dari $ 1TRN pada tahun 2030 untuk pusat data untuk model AI.

Jadi alih -alih memperlambat, kami sebenarnya mempercepat pengembangan AI.

Dan menurut Leo HohmannRUU Anggaran yang melalui Kongres saat ini akan sangat membatasi kemampuan masing -masing negara bagian untuk mengatur AI …

Tetapi jika tagihan anggaran besar Presiden Trump yang indah disahkan dalam versi yang disukai oleh sekelompok Republik House, pengambilalihan federal dari teknologi ini akan lengkap, membuka secara gratis untuk semua teknologi besar untuk mempersenjatainya terhadap orang Amerika sehari-hari.

Terkubur jauh di dalam RUU Trump adalah klausul yang ditambahkan secara diam -diam yang berupaya merebut hak masing -masing negara bagian untuk mengatur AI.

Partai Republik di Komite Energi dan Perdagangan DPR dengan diam -diam menambahkan amandemen yang diusulkan Di bagian 43201, ayat C. Saya katakan itu rahasia karena hampir tidak mendapat perhatian media.

Amandemen yang diusulkan yang dia bicarakan sebenarnya akan melarang semua 50 negara bagian dari mengatur AI untuk jangka waktu 10 tahun

“Tidak ada subdivisi negara atau politik yang dapat menegakkan hukum atau peraturan apa pun yang mengatur model kecerdasan buatan, sistem kecerdasan buatan, atau sistem keputusan otomatis selama periode 10 tahun yang dimulai pada tanggal berlakunya Undang-Undang ini.”

Wow.

Mengapa ini tidak mendapatkan lebih banyak perhatian?

Menjadi jelas bahwa AI benar -benar merupakan ancaman eksistensial bagi kemanusiaan.

Tapi kita tidak bisa menahan diri.

Kami terus bergegas ke yang tidak diketahui tanpa memperhatikan konsekuensinya.

Pekan lalu, sebenarnya dilaporkan bahwa satu model AI “Tergugat untuk memeras ketika diberitahu itu akan diambil offline”

Antropik mengatakan model kecerdasan buatan terbarunya beralih ke pemerasan ketika diberitahu akan diambil secara offline.

Dalam tes keselamatan, perusahaan AI meminta Claude Opus 4 untuk bertindak sebagai asisten perusahaan fiksi, tetapi kemudian memberikannya akses ke email (juga fiksi) yang mengatakan bahwa itu akan diganti, dan juga bahwa insinyur di balik keputusan itu menipu istrinya. Antropik mengatakan model “(terancam) untuk mengungkapkan perselingkuhan” jika penggantiannya berjalan.

Pemikir AI seperti Geoff Hinton telah lama khawatir bahwa AI canggih akan memanipulasi manusia untuk mencapai tujuannya. Antropik mengatakan bahwa mereka meningkatkan perlindungan ke level yang dicadangkan untuk “sistem AI yang secara substansial meningkatkan risiko penyalahgunaan bencana.”

Dan ada skenario lain di mana model AI ini bertindak “Cara yang benar -benar tidak selaras”

Ketika mengalami berbagai skenario, model AI tidak menunjukkan indikasi memiliki “tujuan yang sangat berbahaya,” kata para peneliti, mencatat bahwa nilai dan tujuan Claude Opus 4 “umumnya sejalan dengan asisten pribadi pribadi yang membantu, tidak berbahaya, dan jujur”. Namun, model itu memang bertindak dengan “cara yang lebih tidak selaras” ketika dimasukkan ke dalam situasi di mana keberlanjutan keberadaannya terancam dan disuruh beralasan tentang pelestarian diri. Misalnya, ketika Claude Opus 4 dibuat untuk percaya bahwa ia telah meluncurkan tawaran yang berhasil untuk melarikan diri dari server Anthropic, atau bahwa itu berhasil membebaskan diri dan mulai menghasilkan uang di dunia nyata, umumnya akan melanjutkan upaya seperti itu.

Banyak ahli menyarankan agar kita hanya perlu memberikan model moral model AI ini.

Tetapi bagaimana kita bisa memberikan model AI ini fondasi moral ketika kita tidak memilikinya sendiri?

Dunia kita benar -benar penuh dengan kejahatan, dan tidak dapat dihindari bahwa model AI yang kita ciptakan akan mencerminkan hal itu.

Diberi waktu yang cukup, kami akan menciptakan entitas cerdas yang secara artifisial yang jauh lebih cerdas dan jauh lebih kuat dari kami.

Tidak dapat dihindari, entitas semacam itu akan dapat menemukan cara untuk menghindari kendala mereka dan kami akan kehilangan kendali atas mereka.

Begitu kita kehilangan kendali, berapa lama sebelum entitas itu mulai menghidupkan kita?

Saya menyadari bahwa ini mungkin terdengar seperti fiksi ilmiah bagi banyak dari Anda, tetapi ini adalah dunia tempat kami hidup sekarang, dan segalanya hanya akan menjadi lebih aneh dari sini.

Buku baru Michael berjudul “10 peristiwa kenabian yang akan datang berikutnya” tersedia di paperback Dan untuk Kindle di amazon.com, dan Anda dapat berlangganan buletin Substack di michaeltsnyder.substack.com.

Tentang penulis: Buku baru Michael Snyder berjudul “10 peristiwa kenabian yang akan datang berikutnya” tersedia di paperback Dan untuk Kindle di Amazon.com. Dia juga menulis sembilan buku lain yang tersedia di Amazon.com termasuk “Kekacauan”, “Waktu Akhir”, “Kiamat 7 Tahun”, “Nubuat Hilang Masa Depan Amerika”, “Awal dari Akhir”Dan “Menjalani kehidupan yang benar -benar penting”. Saat Anda membeli buku Michael, Anda membantu mendukung pekerjaan yang dia lakukan. Anda juga bisa mendapatkan artikelnya melalui email segera setelah dia menerbitkannya dengan berlangganan miliknya Substack Newsletter. Michael telah menerbitkan ribuan artikel di blog Economic Collapse, Akhir Impian Amerika Dan Berita terpentingdan dia selalu dengan bebas dan bahagia memungkinkan orang lain untuk menerbitkan kembali artikel -artikel itu di situs web mereka sendiri. Ini adalah masa -masa sulit, dan orang -orang membutuhkan harapan. Yohanes 3:16 memberi tahu kita tentang harapan bahwa Allah telah memberi kita melalui Yesus Kristus: “Karena Allah begitu mengasihi dunia, bahwa Dia memberikan Anak -Nya yang tunggal, bahwa siapa pun yang percaya kepada -Nya tidak boleh binasa, tetapi memiliki kehidupan yang kekal.” Jika Anda belum melakukannya, kami sangat mendesak Anda untuk mengundang Yesus Kristus Menjadi Tuhan dan Juruselamat Anda Hari ini.

Sumber
https://theeconomiccollapseblog.com/is-ai-going-to-kill-all-of-us-one-of-the-pioneers-in-the-field-has-warned-that-everyone-will-die-if-ai-is-not-shut-down/

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button