[Став] Полека одиме кон дистопија

Пишува: Роберт Скиделски

Среде оваа растечка возбуда околу генеративната вештачка интелигенција, расте и загриженоста за нејзиниот потенцијален придонес кон ерозијата на граѓанските слободи. Конвергенцијата на државните разузнавачки агенции и надзорниот капитализам ја засилува заканата што вештачката интелигенција ја претставува за иднината на демократијата.

Додека инвеститорите вложуваат милијарди долари во стартапи поврзани со вештачка интелигенција, лудилото околу генеративната вештачка интелигенција почнува да наликува на шпекулативен балон сличен на холандската манија по лалиња од 30-тите години од 17 век и колапсот на компанијата South Sea (Јужноморски балон) на почетокот на осумнаесеттиот век.

Слично на овие настани, се чини дека бумот на вештачката интелигенција се движи кон неизбежно пукање. Наместо да создава нови ресурси, заканата е дека зад себе ќе остави само купишта долгови.

Вревата што денес се крева околу вештачката интелигенција е поттикната од верувањето дека големите јазични модели како што е неодамна објавениот GPT-4 на OpenAI ќе можат да произведат содржина што практично не се разликува од онаа што ја произведуваат луѓето. Инвеститорите се обложуваат дека напредните системи за генеративна вештачка интелигенција без напор ќе создаваат текст, музика, слики и видеа во секој можен стил како одговор на едноставни упатства од корисниците.

Меѓутоа, во услови на растечки ентузијазам за генеративната вештачка интелигенција, постои зголемена загриженост за нејзиното потенцијално влијание врз пазарот на трудот. Неодамнешниот извештај на Голдман Сакс за „потенцијално големите“ економски ефекти од вештачката интелигенција проценува дека дури 300 милиони работни места се изложени на ризик да бидат автоматизирани, вклучително и работни места за кои треба висока стручна квалификација.

Секако, голем број можности за напредок, но и опасности поврзани со подемот на вештачката интелигенција и натаму се на повидок. Сè уште не сме успеале да развиеме машини кои поседуваат ниво на самосвест и капацитет за информирано одлучување, а повеќето луѓе така ја разбираат интелигенцијата. Ова е причината зошто голем број технолози се залагаат за вградување „морални правила“ во системите за вештачка интелигенција пред да ги надминат човечките способности.

Меѓутоа, вистинската опасност не е дека генеративната вештачка интелигенција ќе стане автономна, како што би сакале многу лидери во светот на технологијата да веруваат, туку дека ќе се користи за да се разниша човечката автономија. Системите за вештачка интелигенција со „тесна“ и „општа намена“ кои можат да ги извршуваат задачите поефикасно од луѓето претставуваат извонредна можност за владите и корпорациите кои сакаат да добијат поголема контрола врз човечкото однесување.

Како што забележува Шошана Зубоф во нејзината книга од 2019 година The Age of Surveillance Capitalism („Доба на надзорен капитализам“), еволуцијата на дигиталните технологии може да доведе до појава на „нов економски поредок којшто тврди дека човечкото искуство е бесплатна суровина за скриени комерцијални практики на екстракција, предвидување и продажба“. Сè посимбиотската врска помеѓу владата и надзорот од приватниот сектор, забележува таа, делумно е резултат на националниот безбедносен апарат „галванизиран од нападите на 11 септември“ и има намера да ги негува и присвои новите технологии за да стекне „целосно знаење“ за однесувањето на луѓето и личните животи.

Палантир, компанија за анализа на податоци, чијшто коосновач е инвеститорот и милијардер Питер Тил, е пример за ова. Тил, истакнат републикански донатор, наводно ја убедил владата на поранешниот американски претседател Доналд Трамп да му додели на Палантир вредни договори за развој на системи за вештачка интелигенција прилагодени за воена употреба. За возврат, Палантир обезбедува разузнавачки услуги на американската влада и другите шпионски агенции ширум светот.

Во „Патување до Лапута“, третиот дел од „Гуливеровите патувања“ на Џонатан Свифт, капетанот Гуливер наидува на пловечки остров населен со научници и филозофи кои смислиле генијални методи за детекција на заговори. Еден од овие методи вклучува детално испитување на „исхраната на сите осомничени лица“, како и внимателно испитување на „нивниот измет“, вклучувајќи ги „бојата, мирисот, вкусот, конзистентноста, примитивноста или зрелоста на варењето“.

Иако современиот државен надзорен апарат се фокусира на испитување на комуникацијата по е-пошта, наместо на телесните функции, тој има слична цел: да открие завери и заговори против „јавниот ред“ или „националната безбедност“ со навлегување во длабочините на умот на луѓето.

Меѓутоа, степенот до кој владите можат да ги шпионираат своите граѓани не зависи само од достапните технологии, туку и од системот на проверка и рамнотежа што го обезбедува политичкиот систем. Затоа Кина, чијшто регулаторен систем е целосно фокусиран на зачувување на политичката стабилност и почитување на „социјалистичките вредности“, беше во можност да го воспостави најпродорниот систем за електронско државно надгледување во светот. Исто така, тоа помага да се објасни зошто Кина е нетрпелива да се позиционира како светски лидер во регулирањето на генеративната вештачка интелигенција.

Спротивно на тоа, пристапот на Европската Унија кон регулативата е фокусиран на основните човекови права, како што се правата на лично достоинство, приватност, слобода од дискриминација и слобода на изразување. Нејзините регулаторни рамки ја нагласуваат приватноста, заштитата на потрошувачите, безбедноста на производите и умереноста на содржината. Додека САД се потпираат на конкуренцијата за заштита на интересите на потрошувачите, Законот за вештачка интелигенција на ЕУ, кој се очекува да биде финализиран подоцна годинава, експлицитно забранува употреба на податоци генерирани од корисниците за „социјално бодување“.

Пристапот на Западот за регулирање на вештачката интелигенција каде човекот е ставен во фокусот и со кој се нагласува заштитата на поединците од штета, е сосема спротивен од авторитарниот модел на Кина. Но, постои јасна опасност двете да се спојат на крајот. Таа опасност што ни виси над глава е поттикната од инхерентниот конфликт помеѓу заложбите на Западот за правата на поединецот и неговите национални безбедносни императиви, кои имаат тенденција да имаат предност пред граѓанските слободи во време на зголемени геополитички тензии.

Сегашната верзија на Законот за вештачка интелигенција, на пример, ѝ дава на Европската комисија овластување да забранува практики како што е предвидувачко полициско работење, но со различни исклучоци за национална безбедност, одбрана и воена употреба.

Во услови на жестока конкуренција за технолошка надмоќ, способноста на владите да развијат и да применат наметливи технологии претставува закана не само за компаниите и политичките режими, туку и за цели земји. Оваа злонамерна динамика е во целосна спротивност со оптимистичките предвидувања дека вештачката интелигенција ќе донесе „широк дијапазон на економски и општествени придобивки низ целиот спектар на индустрии и општествени дејности“.

За жал, постепената ерозија на моќта за спротивставување и уставните ограничувања на владините постапки во западните либерални демократии оди во корист на авторитарните режими. Како што претпазливо забележал Џорџ Орвел, состојба на вечна војна, па дури и илузија на вечна војна, создава идеална средина за појава на технолошка дистопија.

*Роберт Скиделски е член на британскиот Горен дом и почесен професор по политичка економија на Универзитетот Ворвик, поранешен неизвршен директор на приватната руска нафтена компанија PJSC Russneft од 2016 до 2021 година. Автор на биографијата на Џон Мејнард Кејнс во три тома. Својата политичка кариера ја започнал во Лабуристичката партија, станал портпарол на Конзервативната партија за финансиски прашања во Горниот дом и на крајот бил принуден да ја напушти Конзервативната партија поради неговото противење на интервенцијата на НАТО на Косово во 1999 година.

**Блогот е објавен во рамки на Иницијативата за дигитално граѓанство ResPublica и е преземен од www.respublica.edu.mk. Оригиналната објава можете да ја прочитате ТУКА.