OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi

loading…

OpenAI . FOTO/ DAILY

JAKARTA – Dari diluncurkan tiga tahun lalu, ChatGPT Memiliki masalah Untuk menampilkan fakta yang salah.

Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs Keahlian saingan padahal ia tidak pernah bekerja Untuk perusahaan penerbitan tersebut.

Ini adalah masalah halusinasi yang terjadi Di semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri Dari lama.

Para peneliti Hingga OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi Lantaran proses pra-pelatihan model AI Berorientasi Di upaya model Untuk Meramalkan kata berikutnya Bersama tepat, terlepas Untuk apakah kata tersebut benar atau salah.

Artikel ini disadur –> Sindonews Indonesia News: OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi