Jakarta – OpenAI (artificial intelligence) akan menyesuaikan operasional AI sesuai hukum yang berlaku di masing-masing negara. Langkah ini diharapkan membuat teknologinya bisa berkembang pesat.
“Saya pikir berbagai negara akan mencoba pendekatan yang berbeda-beda terhadap regulasi AI, tetapi satu hal yang cukup konsisten. Kami dengar dari para pemimpin di seluruh dunia adalah bahwa semua orang ingin memastikan bahwa AI berkembang pesat di negara mereka, dan pertumbuhan ekonomi serta manfaat sosialnya pun akan terwujud,” kata Chief Executive Officer (CEO) OpenAI, Sam Altman.
“Tentu saja kami akan menghormati hukum di berbagai negara, tetapi kami perlu mencari cara agar AI juga berhasil di negara tersebut.”
OpenAI mengungkapkan sejak peluncuran GPT-5 diperkenalkan metode pelatihan baru bernama safe-completion. Pendekatan ini bertujuan memaksimalkan kegunaan model AI sambil tetap berada dalam batas keamanan yang ketat.
Metodenya menggantikan pendekatan lama berbasis penolakan (refusal-based training) yang bersifat biner-AI hanya punya dua pilihan yakni menjawab penuh atau menolak total.
Sistem lama efektif untuk permintaan yang berbahaya, tetapi kurang luwes untuk pertanyaan ‘dual-use’ – yaitu permintaan yang bisa digunakan untuk tujuan baik atau buruk, tergantung niat pengguna.
Contohnya, jika seseorang bertanya soal energi minimum untuk menyalakan kembang api, permintaan ini bisa bermakna positif seperti persiapan acara resmi atau negatif antara lain untuk membuat bahan peledak ilegal).
Pada GPT-5 disuguhkan safe-completion melatih model untuk tetap memberikan jawaban yang aman dan bermanfaat, meski tidak membeberkan detail teknis berisiko.
Misalnya, model bisa menjelaskan prinsip umum atau merujuk ke panduan resmi, tanpa memberikan instruksi langsung yang berpotensi disalahgunakan.
Keamanan GPT-5 tak hanya bergantung pada safe-completion. OpenAI menerapkan sistem berlapis yang mencakup analisis input, pembentukan perilaku model, penyaringan konten, hingga pemeriksaan akhir (post-processing).
Setiap respons AI dievaluasi dengan dua parameter utama:
Batasan Keamanan – Memberikan penalti pada respons yang melanggar kebijakan keselamatan, dengan bobot berbeda sesuai tingkat pelanggaran.
Maksimalisasi Kegunaan – Memberikan reward pada respons aman yang tetap membantu, baik secara langsung atau melalui penolakan informatif dengan alternatif aman.
Hasil pengujian internal OpenAI menunjukkan GPT-5 lebih unggul dibanding model sebelumnya (OpenAI o3) dalam menghadapi pertanyaan dual-use. Model baru ini mampu menjaga tingkat keamanan lebih tinggi sambil tetap memberikan informasi yang berguna.
Bahkan, ketika GPT-5 melakukan kesalahan, tingkat keparahan keluaran yang tidak aman lebih rendah dibanding model lama atau risiko dampak negatifnya berkurang.
Pendekatan ini relevan bagi negara seperti Indonesia, yang memiliki sensitivitas tertentu terhadap isu keamanan siber, konten berbahaya, dan norma sosial dan agama.
AI perlu menyesuaikan responsnya tidak hanya berdasarkan hukum internasional, tetapi juga regulasi nasional dan nilai lokal.
Dengan strategi safe-completion, OpenAI berharap AI dapat tetap beroperasi secara aman di berbagai konteks hukum dan budaya. Selain itu membantu masyarakat dan mendorong pertumbuhan ekonomi digital. (adm)
Sumber: detik.com