НИП: Психотерапија употребом АИ да људи буду у опасности

Бот Цхат са вештачком интелигенцијом данас је једно од уобичајених средстава у области само-асихолошке помоћи. Истовремено, они нису ефикасни у пружању терапије и често могу дати злонамерне одговоре, изложити опасне људе.

НИП: Психотерапија употребом АИ да људи буду у опасности

Истраживачи су открили да велики језични модели (ЛЛМ), попут ТАТГПТ-а, у најмање 20% случајева доносе непримерене и опасне захтеве за оне који доживе бесмислене мисли, самоубиство, халуцинације и опсесивне поремећаје, писање чланака објављених у Њујорку.

Према публикацији, Бот са ко се често слаже са становиштем корисниковим тачкама, јер су створени да постану послушни и ласкави. Пример новина цитирао је случај када је један од корисника наведен менталном менталном болешћу да је мртав, док га неке плате из АИ нису могле да га убеде супротно томе.

Ботови ниског квалитета су опасни за људе због нормативних јаза … АИ Алати, без обзира колико су тешки, засновани на програмирањем одговора и великим скуповима података … они не разумеју шта је сакривено иза нечијег нечијег размишљања.

Поред тога, клинички консултант Нилуфар Есмаилпур је додао да разговори не могу препознати тон особе или језика тела, а такође не разумеју прошлост особе, његовог окружења и јединственог емоционалног складишта као живог стручњака.

Раније, психолог, заменик директора Института за клиничку психологију и социјални рад Универзитета Пирогов, Екатерина Орлова, рекао је да је опасно поверити Цхатбот са најтежим искуством, страховима и ситуацијама.

У исто време, психолог Анастасиа Валуева разговарао је о позитивним тренуцима у интеракцији са вештачком интелигенцијом.

Comments are closed, but trackbacks and pingbacks are open.