loading…
OpenAI . FOTO/ DAILY
Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs Keahlian saingan padahal ia tidak pernah bekerja Untuk perusahaan penerbitan tersebut.
Ini adalah masalah halusinasi yang terjadi Di semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri Dari lama.
Para peneliti Hingga OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi Lantaran proses pra-pelatihan model AI Berorientasi Di upaya model Untuk Meramalkan kata berikutnya Bersama tepat, terlepas Untuk apakah kata tersebut benar atau salah.
Artikel ini disadur –> Sindonews Indonesia News: OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi