Sebuah surat terbuka yang ditandatangani Elon Musk, pendiri Apple Steve Wozniak, beberapa pakar dunia teknologi terkemuka dan pemimpin perusahaan teknologi lainnya meminta industri kecerdasan buatan (AI) menghentikan sementara pengembangan protokol keamanan teknologi tersebut selama enam bulan.
Surat yang per Kamis (30/3) pagi telah ditandatangani oleh hampir 1.400 orang itu disusun oleh Future of Life Institute, kelompok nirlaba yang fokus “menjauhkan transformasi teknologi dari risiko ekstrem berskala besar, menuju pemberian manfaat ke dalam kehidupan.”
Dalam surat tersebut, kelompok itu menyoroti kemampuan teknologi AI yang berkembang pesat dan betapa teknologi itu telah melampaui kinerja manusia di banyak bidang. Kelompok itu mencontohkan bagaimana AI yang digunakan untuk menciptakan obat-obatan baru dapat dengan mudah juga digunakan untuk menciptakan patogen-patogen mematikan.
Mungkin yang terpenting, surat itu merujuk pada pengenalan teknologi GPT-4, sebuah program yang dikembangkan oleh OpenAI, perusahaan yang bermarkas di San Francisco, sebagai standar yang perlu diperhatikan.
GPT adalah singkatan dari Generative Pre-trained Transformer, sejenis model bahasa yang menggunakan mekanisme pembelajaran mendalam (deep learning) untuk menghasilkan teks percakapan layaknya interaksi dengan manusia.
Perusahaan itu mengatakan, GPT-4 – yang merupakan versi terbarunya – lebih akurat dan lebih mirip manusia, dan memiliki kemampuan untuk menganilisis dan menanggapi foto atau gambar. Perusahaan itu mengatakan, program itu telah lulus mengikuti simulasi bar exam, ujian yang menentukan apakah seseorang dapat menjadi pengacara berlisensi.
Dalam surat tersebut, kelompok itu mengatakan bahwa sistem AI yang sekuat itu seharusnya hanya dikembangkan “ketika kita yakin dampaknya akan positif dan risikonya bisa dikelola.”
Dengan menyebut potensi program semacam GPT-4 menghasilkan disinfomasi dan propaganda, surat itu menuntut “seluruh laboratorium AI untuk segera menghentikan sementara pelatihan sistem AI yang lebih kuat dari GPT-4 selama sedikitnya enam bulan ke depan.”
Surat itu menyebut laboratorium dan pakar AI independen harus menggunakan masa sela itu “untuk bersama-sama mengembangkan dan menerapkan seperangkat protokol keamanan bersama bagi desain dan pengembangan AI yang canggih, yang akan memastikan mereka aman tanpa keraguan.”
Sementara itu, kelompok lain yang sama-sama khawatir akan kemungkinan dampak negatif GPT-4 telah mengambil langkah yang lebih jauh.
Lembaga nirlaba Center for AI and Digital Policy mengajukan keluhan kepada Komisi Perdagangan Federal AS hari Kamis (30/3), menuntut badan tersebut untuk menangguhkan penerapan sistem AI lebih lanjut dan membuka penyelidikan.
Dalam keluhannya, kelompok itu mengatakan bahwa deskripsi teknis GPT4 dari perusahaan pembuatnya itu memaparkan hampir selusin risiko besar penggunaannya, termasuk “operasi disinformasi dan pengaruh, proliferasi senjata konvensional dan nonkonvensional,” serta “keamanan siber.” [rd/jm]