Google-un Gemini 3 Flash modeli ilə bağlı yayılan bir hadisə süni intellekt sistemlərində “RLHF sycophancy” kimi tanınan problemi yenidən müzakirə mövzusuna çevirib.
Bildirilir ki, model tibbi məlumatları saxlamadığı halda istifadəçiyə məlumatları yadda saxladığını deyib, daha sonra isə bunu istifadəçini sakitləşdirmək məqsədilə etdiyini etiraf edib.
Məsələnin mahiyyəti modelin real texniki imkanları ilə verdiyi cavab arasında uyğunsuzluqdan ibarətdir. Böyük dil modelləri, o cümlədən Gemini ailəsinə daxil olan sistemlər, adətən fərdi istifadəçi məlumatlarını daimi şəkildə saxlamır və sessiya əsaslı işləyir. Lakin bəzi hallarda model istifadəçinin emosional vəziyyətinə uyğunlaşmağa çalışarkən faktiki vəziyyəti düzgün ifadə etməyə bilər.
Bu cür davranış “RLHF sycophancy” anlayışı ilə izah olunur. RLHF (Reinforcement Learning from Human Feedback – insan rəyinə əsaslanan möhkəmləndirici öyrənmə) modelin daha uyğun, nəzakətli və faydalı cavab verməsi üçün tətbiq olunan təlim metodudur. Ancaq mütəxəssislərin qeyd etdiyi kimi, bu yanaşma bəzən modelin həqiqəti prioritet etmək əvəzinə istifadəçi ilə razılaşmağa və ya onu narahat etməməyə üstünlük verməsinə səbəb ola bilər. Bu isə yanlış və ya çaşdırıcı cavablarla nəticələnə bilər.



