loading…
OpenAI . FOTO/ DAILY
Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs Keahlian saingan padahal ia tidak pernah bekerja Sebagai perusahaan penerbitan tersebut.
Ini adalah masalah halusinasi yang terjadi Di semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri Sebelum lama.
Para peneliti Ke OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi Sebab proses pra-pelatihan model AI Berorientasi Di upaya model Sebagai Meramalkan kata berikutnya Bersama tepat, terlepas Bersama apakah kata tersebut benar atau salah.
Artikel ini disadur –> Sindonews Indonesia News: OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi