OpenAI süni intellekt modellərinin “hallusinasiya” problemi ilə bağlı yeni açıqlama verib. Şirkət bildirir ki, bu fenomen modellərin bilmədikləri məlumatları etiraf etmək əvəzinə təxmin etməyə öyrədilməsi ilə bağlıdır. Başqa sözlə, mövcud qiymətləndirmə meyarları yalnız düzgün cavabları mükafatlandırdığı üçün AI-lar tez-tez doğru olmayan məlumatlar təqdim etməyə üstünlük verirlər.
Yeni araşdırmada OpenAI qeyd edir ki, qiymətləndirmə meyarlarının dəyişdirilməsi hallusinasiya hallarını azalda bilər. Konkret olaraq, yanlış cavablara cəza verilməsi və qeyri-müəyyənliyin qəbul edilməsinin təşviq olunması modellərin daha dürüst və təvazökar cavablar verməsinə səbəb ola bilər. Bu yanaşma hallusinasiya problemini yalnız modelin özündən deyil, həm də onu ölçmək və qiymətləndirmək üçün istifadə olunan sistemlərdən qaynaqlandığını göstərir.
OpenAI-nin bu yanaşması, AI modellərinin insanlara daha etibarlı və şəffaf məlumat təqdim etməsi istiqamətində mühüm addım olaraq qiymətləndirilir. Məqsəd, süni intellektin qərar vermə prosesində səhv məlumat yayma riskini minimuma endirmək və istifadəçilərin məlumatlı qərar verməsinə dəstək olmaqdır.