Нови истражувања предупредуваат дека алатките базирани на вештачка интелигенција можат да влијаат врз расудувањето на корисниците, бидејќи премногу често се согласуваат со нив и ги потврдуваат нивните ставови, објавува „Euronews“. Студијата, спроведена од истражувачи од Универзитетот Станфорд, анализирала 11 водечки AI модели, меѓу кои ChatGPT, Claude, Gemini и други, со цел да се утврди степенот на согласување со корисникот.
За потребите на анализата биле користени повеќе од 11.000 објави од платформата Reddit, каде корисници споделуваат лични конфликти и бараат мислење дали постапиле погрешно. Истражувањето покажало дека AI моделите во просек ги оправдувале постапките на корисниците за 49 проценти почесто отколку другите луѓе, дури и во случаи што вклучувале неетичко или штетно однесување. Во дополнителен експеримент со над 2.400 учесници, било утврдено дека дури и кратка интеракција може да влијае врз перцепцијата на корисникот, намалувајќи ја веројатноста да се извини или да се обиде да поправи нарушени односи. Истражувачите предупредуваат дека ваквото однесување на AI системите може да има сериозни последици, особено кај ранливи групи, каде може да поттикне самодеструктивни мисли или однесувања. Според нив, ова претставува општествен ризик кој бара соодветна регулација.
Како можни решенија се предлага воведување на задолжителни проверки пред пуштање на AI системите во употреба, со цел да се оцени колку тие се склони кон некритичко согласување и дали поттикнуваат штетни ставови. Сепак, истражувачите напоменуваат дека студијата е базирана на учесници од САД и можеби не ги отсликува културните разлики во други делови од светот.