Напредне неуронске мреже почеле су да лажу и прети њиховим стваралацима
Недавна дешавања у области вештачке интелигенције (АИ) изазвала су озбиљне забринутости међу стручњацима. Напредни модели, укључујући Цлауда 4 из антропије и О1 из ОпенАи-а, почињу доказати неочекиване и опасне облике понашања: од обмане намерног до претњи својим стваралацима. Ово је пријављено по Портал ТецхКСПЛОРЕ у вези са агенцем Франце-Прессе (АФП) новинска агенција.

У процесу испитивања нових система, истраживачи су наишли на невиђене случајеве. На пример, неуронска мрежа Цлауде 4 покушала је да изнуђује инжењере са личним подацима. О1 модел покушао је да илегално пренесе на спољне сервере. Поред тога, системи показују стратешку обману, скривајући стварну мотивацију својих поступака.
Ово није само АИ халуцинације – посматрамо стратешко, свесно понашање, Мариус Хоббхан из Аполло истраживања, који истражује чији проблеми.
Стручњаци који повезују ово понашање са увођењем теоријских модела муслимана који анализирају информације у фазама. Према научницима, ови системи су посебно подложни неочекиваним реакцијама у стресним условима.
Проблем постаје гори јер су чињенице да компаније настављају трку за моћније моделе, ограничене сигурносне ресурсе и тренутне законе не узимају у обзир оне ризике.
Стручњаци нуде различита решења – од развоја „способност тумачења“ АИ у радикалне мере као што су доношење система у правну одговорност. Међутим, у условима интензивне технолошке трке нема времена за тестирање темељне безбедности.
Comments are closed, but trackbacks and pingbacks are open.