Описане су могућности контроле АИ

Стручњаци са Универзитета Њујорк (САД) описали су потенцијалне опасности обуке модела вештачке интелигенције (АИ) на непровереним подацима. Истраживање је објављено у часопису Натуре.

Описане су могућности контроле АИ

Према научницима, АИ велики језички модели (ЛЛМ) ће правити грешке ако су обучени на лажним информацијама или намерно напуњени ненаучним подацима. Стручњаци су открили да када ниво дезинформација у образовним материјалима достигне само 0,001%, неуронске мреже већ могу почети да генеришу велики број погрешних одговора.

Истраживачи су покушали да обуче два ЛЛМ-а у медицинској бази података Тхе Пиле, бирајући 20 тема из три медицинске области: општа медицина, неурохирургија и медицина. Да би тестирали утицај дезинформација на учење, аутори студије су користили ГПТ 3.5 модел. Испоставило се да је неуронска мрежа не само почела да емитује нетачне информације на основу директних захтева, већ је почела да прави грешке на сродним темама. Према научницима, ово отвара могућности за манипулацију вештачком интелигенцијом.

Дакле, са стопом дезинформација од 0,01%, ЛЛМ почиње да добија 10% погрешних одговора. Ако смањите број лажних докумената за обуку за велику маргину — на 0,001 проценат — онда модел почиње да прави грешке у 7% случајева.

Научници су открили да људи имају тенденцију да добијају информације од чет-бота и да их не проверавају уз помоћ стручњака. Због тога сматрају да је важно потврдити податке који се користе за обуку модела.

Почетком јануара, стручњаци Блоомберг Интеллигенце су известили да ће у наредних 3 до 5 година највеће банке смањити до 200 хиљада запослених због ширења АИ. Четвртина испитаника је предвидела смањење од 5 до 10 одсто укупне радне снаге.

Comments are closed.