Pentingnya Regulasi AI: Mencegah Ancaman Kecerdasan Buatan Umum bagi Manusia

  • Bagikan
Ilustrasi artifial intelligence (AI) alias kecerdasan buatan. (ANTARA/Pixabay)

FAJAR.CO.ID -- Kecerdasan buatan (AI) kini menjadi sorotan utama dalam masyarakat modern, dengan kehadirannya yang meluas di berbagai aspek kehidupan. Namun, dengan pesatnya perkembangan AI, muncul kebutuhan mendesak akan regulasi yang tepat guna mencegah potensi risiko, terutama terkait dengan Kecerdasan Buatan Umum (AGI).

Sebuah inisiatif oleh The Institute of Management Development (IMD) menghadirkan "AI Safety Clock" sebagai indikator risiko yang bisa memicu ancaman bagi umat manusia.

Kecerdasan buatan atau Artificial Intelligence (AI) telah menjadi tren yang masif di masyarakat saat ini. Tanpa kita sadari, AI sudah digunakan dalam berbagai medium, mulai dari smartphone, jaringan internet yang kita akses, hingga tayangan di televisi atau platform video yang kita nikmati sehari-hari.

Seiring dengan semakin meluasnya tren AI, para pakar dan praktisi mulai menyadari pentingnya regulasi terkait teknologi ini. Salah satu inisiatif yang digaungkan adalah dari The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for Digital and AI Transformation, yang memperkenalkan "AI Safety Clock" atau Jam Keamanan AI.

Jam ini berfungsi sebagai indikator untuk menilai seberapa tinggi risiko perkembangan Kecerdasan Buatan Umum (Artificial General Intelligence/AGI) hingga dapat menjadi tidak terkendali. AGI adalah sistem AI yang mampu beroperasi mandiri tanpa bantuan manusia, sehingga memiliki potensi untuk membahayakan.

Lalu, seberapa berbahaya ancaman AI bagi umat manusia saat ini? Menurut Michael Wade, Direktur Global Center for Digital Business Transformation IMD dan Direktur TONOMUS Global Center for Digital and AI Transformation, terdapat empat fase risiko AGI yang tidak terkendali: rendah, sedang, tinggi, dan kritis. Saat ini, dunia sedang memasuki fase risiko tinggi.

“Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembangan AGI menjadi kritis dan tidak terkendali, itu akan menjadi musibah bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade melalui laporan resminya.

Wade menambahkan bahwa regulasi yang efektif dan terpadu dapat membatasi risiko terburuk dari perkembangan teknologi ini tanpa mengurangi manfaat yang ada. "Kami menyerukan kepada pelaku internasional dan perusahaan teknologi besar untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.

Ketika perkembangan AGI tidak lagi bisa dikendalikan, ini bisa menjadi bencana bagi dunia. Misalnya, ketika AI mengambil alih dan mengendalikan persenjataan konvensional seperti senjata nuklir, biologi, atau kimia.

Saat ini, Tiongkok sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya dalam infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir. AI juga digunakan untuk memanipulasi atau mengganggu pasar keuangan serta infrastruktur penting seperti energi, transportasi, dan komunikasi, yang dapat menimbulkan ancaman langsung terhadap nyawa manusia.

Tim dari IMD menjelaskan bahwa ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi, yaitu AI multimodal dan AI agen. AI multimodal dapat memproses dan mengintegrasikan berbagai jenis input (seperti teks, gambar, dan audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya GPT-4o, Gemini Ultra, dan Pixtral 12B.

Sementara itu, AI agen adalah sistem AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom, yang saat ini sedang berkembang pesat. Meskipun kemajuan AI agen mendorong perkembangan AGI, ini juga berpotensi menjadi bencana ketika sistem ini tidak terkendali, terutama ketika digabungkan dengan teknologi lainnya.

Contoh lain adalah perkembangan robot humanoid yang ditenagai oleh AI generatif, yang digunakan agar robot ini dapat beroperasi dan mengambil keputusan secara mandiri. NVIDIA saat ini bekerja sama dengan perusahaan robotika untuk mengembangkan model dasar bagi robot humanoid tersebut.

Kemajuan teknologi ini memang menarik, tetapi juga dapat menjadi ancaman tersembunyi bagi umat manusia. Oleh karena itu, pengawasan yang cermat dan manajemen yang bertanggung jawab sangat penting agar penerapan AI tetap aman dan tidak menjadi ‘senjata makan tuan’.

Kembali ke regulasi, dalam sejarah, regulasi sering kali terlambat mengikuti perkembangan teknologi dan inovasi. Namun, saat ini terdapat beberapa inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan dalam merumuskan aturan terkait AI.

Selain kebijakan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model AI seperti OpenAI, Meta, dan Alphabet, juga memiliki peran penting dalam mengurangi risiko AI.

Dalam praktik keselamatan AI, sejumlah perusahaan teknologi pengembang AI mulai menerapkan regulasi pengamanan. OpenAI telah menyediakan Preparedness Framework, sementara Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP).

Meskipun berbagai kerangka kerja ini merupakan langkah penting dalam menjaga keselamatan AI, masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.

Dapatkan berita terupdate dari FAJAR di:
  • Bagikan