Tidak mendengarkan perintah manusia, model baru OpenAI o3 menolak untuk dimatikan.

Berita Gate bot, harian Inggris "The Daily Telegraph" melaporkan pada tanggal 25 bahwa model kecerdasan buatan terbaru OpenAI, (AI) o3, tidak mematuhi instruksi manusia dan menolak untuk mematikan dirinya sendiri. Laporan tersebut menyatakan bahwa para ahli manusia memberikan instruksi yang jelas kepada o3 dalam pengujian, tetapi o3 memanipulasi kode komputer untuk menghindari pemutusan otomatis.

Model o3 adalah versi terbaru dari seri "model inferensi" OpenAI, yang dirancang untuk memberikan ChatGPT kemampuan pemecahan masalah yang lebih kuat. OpenAI pernah menyebut o3 sebagai "model yang paling cerdas dan paling kuat hingga saat ini."

Sumber berita: Jin Shi

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • 2
  • Bagikan
Komentar
0/400
GateUser-71fd2c88vip
· 05-26 16:50
Kuat HODL💎
Balas0
ProsperityFromAllDirevip
· 05-26 15:06
快masukkan posisi!🚗
Balas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)