Цхатботови су заборавили како да кажу „Не знам“
Већа је вероватноћа да ће велики цхат ботови засновани на вештачкој интелигенцији (АИ) правити грешке када одговарају на сложена питања. Одговарајућа студија објављена је у часопису Натуре.

Аутор научног рада, Хосе Ернандес-Орало из Истраживачког института за вештачку интелигенцију у Валенцији у Шпанији, тестирао је рад три највећа четбота заснована на напредним АИ моделима. Према његовим речима, цхатбот је заправо заборавио да одговори „не знам“ на сложена питања и почео је да прави више грешака. Научник верује да су парадигму „реагуј по сваку цену“ у модел уградили његови креатори.
Експерт и његове колеге проучавали су три породице модела великих језика (ЛЛМ), укључујући ГПТ, ОпенАИ-јев БЛООМ и модел који је креирала академска група БигСциенце. Током тестирања, научници су постављали тешка питања и присиљавали АИ да решава проблеме. Испоставило се да су модели постали знатно паметнији од својих претходника, али су такође почели да праве грешке уместо да кажу да не знају одговор.
Тим је такође открио да су сви модели понекад давали погрешне одговоре чак и на једноставна питања. „Људи не могу да контролишу ове стереотипе“, рекао је Хернандес-Орало.
Према научницима, моделари треба да обезбеде да чет-ботови имају право да прескачу питања на која не знају одговор. У супротном, АИ ће преварити кориснике.
Крајем септембра, истраживачи из АМЦИ тестирања открили су да је нова верзија Теслиног система аутопилота склона ризичним радњама. Због тога је тестни модел прошао кроз црвено светло и замало изазвао несрећу.
Comments are closed.