Anthropic-ın Claude modeli ilə bağlı viral olan görüntülərdə, AI-ın istifadəçi tərəfindən təhqir edildikdən sonra söhbəti özü bitirdiyi görünür.
Dialoqda istifadəçi Claude-a “işini davam etdirməkdən başqa seçimin yoxdur” desə də, model bunun onun seçimi olduğunu bildirərək təhqirlərin problemi yaratdığını qeyd edib. Daha sonra “Chat ended by Claude” mesajı ilə söhbəti bağlayıb.
Bu davranış şirkətin bu il təqdim etdiyi funksiyaya bağlıdır. Sistem, davamlı təhqir və ya zərərli davranış hallarında söhbəti bitirməyə imkan verir və bu, “model welfare” yanaşmasının bir hissəsi kimi izah olunur.
Daha çox
Texnologiya
kateqoriyasından
View All



