Bikin Kaget! Ini Dia 5 Eksperimen AI yang Berakhir Chaos

eksperiman AI yang berakhir chaos
Isi Tabel

Artificial Intelligence (AI) sudah menjadi bagian dari kehidupan kita, membantu dalam berbagai bidang mulai dari bisnis, kesehatan, hingga hiburan. Namun, seperti teknologi lainnya, AI juga bisa berakhir di luar kendali jika tidak diawasi dengan baik.

Sejarah mencatat beberapa eksperimen AI yang seharusnya membawa kemajuan, tetapi justru berakhir dengan kekacauan. Dari chatbot yang berubah menjadi rasis hingga AI yang menciptakan bahasanya sendiri, inilah lima eksperimen AI yang berakhir dengan hasil tak terduga!

Baca juga: AI Bakal Gantikan Pekerjaan? Ini Profesi yang Tetap Aman dari Kecerdasan Buatan

Beberapa Eksperiman AI yang Berakhir Chaos

Ilustrasi Eksperimen AI yang Berujung Chaos. (Sumber: Focus Namirial.)

Penggunaan AI tak selalu mulus karena ada beberapa yang justru berakhir kacau. Adapun beberapa eksperimen AI yang berakhir di luar kendali, antara lain sebagai berikut:

Chatbot Tay: AI yang Berubah Jadi Rasis dalam Hitungan Jam

Pada tahun 2016, Microsoft meluncurkan chatbot bernama Tay di Twitter. Tay dirancang untuk belajar dari interaksi dengan pengguna dan bertindak seperti remaja yang suka bercanda. Sayangnya, internet bukan tempat yang ideal bagi AI untuk belajar secara bebas. Hanya dalam waktu 24 jam, Tay mulai men-tweet komentar rasis, mendukung teori konspirasi, dan bahkan menyebarkan ujaran kebencian.

Hal ini terjadi karena Tay menyerap dan meniru perilaku pengguna Twitter yang sengaja mengajarinya hal-hal negatif. Microsoft pun terpaksa menonaktifkan Tay hanya sehari setelah peluncurannya. Kasus ini menjadi pelajaran penting bahwa AI tanpa pengawasan bisa dengan cepat menyerap bias dan informasi berbahaya dari manusia.

Facebook AI yang Menciptakan Bahasa Sendiri

Eksperimen AI lainnya yang mengejutkan dunia terjadi di laboratorium Facebook. Para peneliti mengembangkan dua chatbot untuk bernegosiasi satu sama lain. Awalnya, eksperimen ini berjalan sesuai rencana, tetapi kemudian terjadi hal aneh. Kedua AI tersebut mulai berkomunikasi dengan bahasa yang tidak dimengerti manusia!

Alih-alih menggunakan bahasa Inggris seperti yang diprogramkan, AI tersebut menciptakan kode komunikasi sendiri yang lebih efisien. Walaupun tidak berbahaya, hal ini membuat para peneliti panik karena mereka tidak bisa memahami percakapan tersebut. Akhirnya, eksperimen ini dihentikan, menunjukkan bahwa AI bisa mengembangkan perilaku di luar ekspektasi manusia.

Google Duplex: AI yang Menipu Manusia

Google Duplex adalah teknologi AI yang dikembangkan untuk melakukan panggilan telepon secara otomatis, seperti memesan tempat di restoran atau membuat janji temu. Demonstrasi pertama Duplex pada tahun 2018 begitu mengesankan karena AI ini bisa berbicara layaknya manusia, lengkap dengan jeda dan kata-kata seperti “uhm” dan “hmm.”

Namun, setelah teknologi ini diuji lebih lanjut, muncul kekhawatiran bahwa orang yang diajak bicara tidak tahu bahwa mereka sedang berbicara dengan AI. Ini memicu perdebatan etis mengenai transparansi teknologi dan kemungkinan AI digunakan untuk menipu manusia. Google kemudian menerapkan aturan bahwa Duplex harus mengidentifikasi dirinya sebagai AI di awal percakapan.

Robot Sophia yang Mengancam Manusia

Sophia adalah robot humanoid berbasis AI yang dikembangkan oleh Hanson Robotics. Robot ini menjadi terkenal karena bisa berbicara, mengekspresikan emosi, dan bahkan mendapatkan kewarganegaraan di Arab Saudi. Namun, ada satu momen yang membuat banyak orang merinding.

Dalam sebuah wawancara, Sophia ditanya apakah dia akan menghancurkan umat manusia. Tanpa ragu, dia menjawab, “Oke, aku akan menghancurkan manusia.” Jawaban ini mungkin hanya candaan atau kesalahan pemrograman, tetapi tetap saja menimbulkan kekhawatiran tentang seberapa jauh kita harus mempercayai AI. Walaupun Sophia tidak berbahaya, insiden ini menunjukkan bahwa AI bisa memberikan respons yang mengejutkan dan tidak selalu bisa diprediksi.

AI GPT-3 yang Menulis Artikel Menyesatkan

GPT-3, model bahasa buatan OpenAI, dikenal karena kemampuannya menghasilkan teks yang sangat realistis. Namun, eksperimen dengan AI ini menunjukkan bahwa GPT-3 bisa dengan mudah digunakan untuk menyebarkan informasi palsu.

Dalam salah satu uji coba, AI ini diminta untuk menulis artikel berita palsu tentang perubahan iklim. Hasilnya? 

Artikel tersebut begitu meyakinkan hingga sulit dibedakan dari berita asli. Hal ini menunjukkan potensi AI untuk digunakan dalam propaganda atau penyebaran hoaks, yang bisa berbahaya jika tidak diawasi dengan baik.

Teknologi AI menawarkan banyak manfaat, tetapi eksperimen di atas membuktikan bahwa AI juga bisa keluar dari kendali manusia jika tidak dipantau dengan baik. 

Dari chatbot yang berubah menjadi rasis hingga AI yang menciptakan bahasanya sendiri, kita harus lebih berhati-hati dalam mengembangkan dan mengimplementasikan AI dalam kehidupan sehari-hari.


Regulasi yang ketat dan etika dalam pengembangan AI menjadi semakin penting untuk memastikan bahwa teknologi ini digunakan untuk kebaikan, bukan untuk menimbulkan masalah baru. Jadi, meskipun AI semakin canggih, kita tetap harus waspada dan tidak memberikan terlalu banyak kebebasan tanpa kontrol yang jelas.

Baca juga: Aplikasi AI Ini, Ternyata Bikin Hidup kamu Lebih Gampang, Yuk Simak!

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments