Сред многобройните дебати, които се вихрят около бързото внедряване на т.нар. изкуствен интелект, има и една сравнително неясна схватка, фокусирана върху избора на думата „халюцинирам“.
Това е терминът, който архитектите и поддръжниците на генеративния ИИ използват, за да опишат отговорите, подавани от чатботовете, които са напълно измислени или направо погрешни. Например, когато поискате от бота определение на нещо, което не съществува, и той доста убедително ви го даде, придружено от измислени бележки под линия. „Никой в тази област все още не е решил проблемите с халюцинациите“, каза наскоро в интервю Сундар Пичай, главен изпълнителен директор на Google и Alphabet.
Това е така – но защо изобщо наричате грешките „халюцинации“? Защо не алгоритмичен боклук? Или „гличове“? Е, халюцинацията се отнася до мистериозната способност на човешкия мозък да възприема явления, които не са налице, поне не в конвенционалните, материалистични термини. Присвоявайки си дума, често използвана в психологията, психеделиците и различните форми на мистицизъм, поддръжниците на изкуствения интелект, макар да признават несъстоятелността на своите машини, едновременно с това подхранват най-запазената митология в сектора: че изграждайки тези големи езикови модели и обучавайки ги на всичко, което ние, хората, сме написали, казали и представили визуално, те са в процес на създаване на жив интелект, който е на прага на еволюционен скок за нашия вид. Как иначе ботове като Bing и Bard биха могли да се вихрят така из пространството?
В света на изкуствения интелект обаче наистина има изкривени халюцинации – но не ботовете са тези, които ги имат, а технологичните главни изпълнителни директори, които са ги пуснали на свобода, заедно с фаланга от техни фенове, които са в плен на дивите халюцинации, както индивидуално, така и колективно. Тук определям халюцинацията не в мистичен или психеделичен смисъл – състояния на променено съзнание, които наистина могат да помогнат за достъпа до дълбоки, неподозирани досега истини. Не. Тези хора просто се поддават на самозаблуда: виждат или поне твърдят, че виждат доказателства, които изобщо не съществуват, дори сътворяват цели светове, които ще използват техните продукти за нашето всеобщо възпитание и образование.
Генеративният изкуствен интелект ще сложи край на бедността, казват ни те. Той ще излекува всички болести. Той ще реши проблема с изменението на климата. Той ще направи работата ни по-смислена и вълнуваща. Той ще отключи живот на отдих и съзерцание, помагайки ни да си възвърнем човечността, която сме загубили заради къснокапиталистическата механизация. То ще сложи край на самотата. Ще направи правителствата ни рационални и отзивчиви. Опасявам се, че това са истинските халюцинации за ИИ и всички ние ги чуваме непрекъснато, откакто Chat GPT стартира в края на миналата година.
Съществува свят, в който генеративният ИИ, като мощен инструмент за прогнозни изследвания и изпълнител на досадни задачи, наистина може да бъде използван в полза на човечеството, другите видове и нашия общ дом. Но за да се случи това, тези технологии ще трябва да бъдат използвани в рамките на един много по-различен икономически и социален ред от нашия, който има за цел да задоволява човешките нужди и да защитава планетарните системи, които поддържат целия живот.
И както тези от нас, които в момента не са изпаднали в разюздани фантазии, добре разбират, сегашната ни система няма нищо общо с това. Напротив, тя е изградена така, че да максимизира извличането на богатство и печалба – както от хората, така и от природния свят – реалност, която ни е довела до това, което можем да смятаме за техно-некро-етапа на капитализма. В тази реалност на свръхконцентрирана власт и богатство ИИ – далеч от това да оправдае всички утопични халюцинации – е много по-вероятно да се превърне в страшен инструмент за по-нататъшно лишаване от собственост и опустошаване.
Ще разгледам защо това е така. Но първо е полезно да помислим за целта, която преследват утопичните халюцинации за ИИ. Каква работа вършат тези доброжелателни истории в културата, докато се сблъскваме с тези странни нови инструменти? Ето една хипотеза: те са мощни и примамливи прикрития за това, което може да се окаже най-голямата и най-съществената кражба в човешката история. Защото това, на което сме свидетели, е как най-богатите компании в историята (Microsoft, Apple, Google, Meta, Amazon …) едностранно изземват съвкупността от човешкото знание, което съществува в цифрова, използваема форма, и го заграждат в патентовани продукти, много от които ще бъдат насочени директно към хората, чийто труд през целия им живот е обучавал машините, без да дават разрешение или съгласие.
Това не би трябвало да е законно. В случаите на материали, защитени с авторски права, за които сега знаем, че са обучавали моделите, са заведени различни съдебни дела, които ще твърдят, че това е било очевидно незаконно. Защо например на компания с идеална цел трябва да бъде разрешено да вкарва картини, рисунки и снимки на живи художници в програма като Stable Diffusion или Dall-E 2, за да може след това те да бъдат използвани за генериране на двойници на произведенията на същите тези художници, като ползите от това са за всички, освен за самите художници?
Живописецът и илюстратор Моли Крабапъл помага на движението от художници, които оспорват тази кражба. „Генераторите на изкуство с изкуствен интелект се обучават върху огромни масиви от данни, съдържащи милиони и милиони изображения, защитени с авторски права, събрани без знанието на техните създатели, да не говорим за компенсация или съгласие. Това на практика е най-голямата кражба на произведения на изкуството в историята. Извършва се от уважавани на пръв поглед корпоративни структури, подкрепени от рисков капитал от Силициевата долина. Това е обир посред бял ден“, се казва в отворено писмо, на което тя е съавтор.
Номерът, разбира се, е в това, че Силициевата долина обичайно нарича кражбата “ смущение на статуквото“ – и твърде често се измъква от отговорност. Познаваме този ход: навлизате в беззаконна територия; твърдите, че старите правила не важат за новите ви технологии; крещите, че регулациите само ще помогнат на Китай – и всичко това, докато затвърждавате позициите си на терен. Докато всички преодолеем новостта на тези нови играчки и започнем да си правим равносметка за социалните, политическите и икономическите разрушения, технологиите вече са толкова разпространени, че съдилищата и политиците вдигат ръце.
Видяхме го при сканирането на книги и произведения на изкуството в Google. С космическата колонизация на Мъск. С атаката на Uber срещу таксиметровия бранш. С атаката на Airbnb срещу пазара на наеми. С безразборното боравене на Facebook с нашите данни. Не искайте разрешение, както обичат да казват смутителите, а поискайте прошка. (И подкрепят молбите си с щедри вноски за политически кампании.)
В „Епохата на капитализма на наблюдението“ Шошана Зубоф подробно описва как картите Street View на Google нарушават нормите за неприкосновеност на личния живот, като изпращат колите си с камери, за да заснемат обществените пътища и външните пространства на домовете ни. По времето, когато започнаха съдебните дела за защита на правата на личния живот, Street View вече беше толкова разпространен в нашите устройства (и толкова готин, и толкова удобен…), че малко съдилища с изключение на тези в Германия бяха склонни да се намесят.
Сега същото, което се случи с външната част на домовете ни, се случва и с думите, изображенията, песните и целия ни цифров живот. В момента всички те се изземват и се използват за обучение на машините, за да симулират мислене и творчество. Тези компании трябва да знаят, че участват в кражба, или поне че могат да бъдат представени убедителни доказателства за това. Те просто се надяват, че старият наръчник ще проработи още веднъж – че мащабът на кражбата вече е толкова голям и се развива с такава скорост, че съдилищата и политиците отново ще вдигнат ръце пред предполагаемата неизбежност на всичко това.
Затова и халюцинациите им за всички прекрасни неща, които ИИ ще направи за човечеството, са толкова важни. Защото тези възвишени твърдения прикриват тази масова кражба като дар – в същото време помагат да се рационализират безспорните опасности, които ИИ крие.
Повечето от нас вече са чували за проучването, в което изследователи и разработчици на ИИ бяха помолени да оценят вероятността напредналите системи за ИИ да причинят „изчезване на хората или подобно трайно и сериозно обезсилване на човешкия вид“. Смразяващо е, че средният отговор беше, че вероятността е 10%.
Как се рационализира ходенето на работа и прокарването на инструменти, които носят такива екзистенциални рискове? Често се посочва причината, че тези системи носят и огромни потенциални предимства – само че тези предимства в по-голямата си част са халюцинация. Нека разгледаме няколко от най-безумните от тях.
Халюцинация #1: ИИ ще разреши климатичната криза
Почти винаги начело на списъците с предимства на изкуствения интелект стои твърдението, че тези системи по някакъв начин ще решат климатичната криза. Чували сме го от всички – от Световния икономически форум, през Съвета за външни отношения, до Boston Consulting Group, която обяснява, че ИИ „може да се използва в подкрепа на всички заинтересовани страни при възприемането на по-информиран и основан на данни подход към борбата с въглеродните емисии и изграждането на по-зелено общество. Той може да бъде използван и за пренасочване на глобалните усилия в областта на климата към най-застрашените региони.“ Бившият главен изпълнителен директор на Google Ерик Шмидт обобщи тезата, когато заяви пред Atlantic, че рисковете, свързани с ИИ, си заслужават, защото „Ако се замислите за най-големите проблеми в света, всички те са наистина трудни – изменението на климата, човешките организации и т.н. И така, аз винаги искам хората да бъдат по-умни.“
Според тази логика неуспехът да се „решат“ големи проблеми като изменението на климата се дължи на недостиг на ум. Няма значение, че умни хора, с докторати и Нобелови награди, от десетилетия казват на нашите правителства какво трябва да се случи, за да се измъкнем от тази бъркотия: да намалим емисиите си, да оставим въглерода в земята, да се справим със свръхпотреблението на богатите и недостатъчното потребление на бедните, защото нито един енергиен източник не е свободен от екологични разходи.
Причината, поради която този много умен съвет е бил пренебрегнат, не се дължи на проблем с разбирането на текста или на това, че по някакъв начин се нуждаем от машини, които да мислят вместо нас. Причината е, че ако направим това, което климатичната криза изисква от нас, ще изгубим трилиони долари от активи, свързани с изкопаеми горива, и ще поставим под въпрос модела на растеж, основан на потреблението, който е в основата на нашите взаимосвързани икономики. Климатичната криза всъщност не е мистерия или загадка, която все още не сме разрешили поради недостатъчно солидни набори от данни. Знаем какво би било необходимо, но това не е бързо решение – това е промяна на парадигмата. Чакането машините да изплюят по-приемлив и/или изгоден отговор не е лек за тази криза, а още един неин симптом.
Ако изчистим халюцинациите, изглежда много по-вероятно изкуственият интелект да бъде пуснат на пазара по начин, който активно задълбочава климатичната криза. Първо, гигантските сървъри, които правят възможни незабавните есета и произведения на изкуството от чатботове, са огромен и нарастващ източник на въглеродни емисии. Второ, тъй като компании като Coca-Cola започват да правят огромни инвестиции, за да използват генеративен ИИ, за да продават повече продукти, става твърде ясно, че тази нова технология ще бъде използвана по същите начини, както последното поколение цифрови инструменти: че това, което започва с възвишени обещания за разпространение на свободата и демокрацията, завършва с микронасочване на реклами към нас, така че да купуваме повече безполезни неща, които отделят въглерод.
Има и трети фактор, който е малко по-труден за определяне. Колкото повече медийните ни канали са залети от дълбоки фалшификати и клонинги от различен вид, толкова повече имаме усещането, че потъваме в информационни подвижни пясъци. Джефри Хинтън, който често е наричан „кръстникът на изкуствения интелект“, защото разработената от него преди повече от десетилетие невронна мрежа формира градивните елементи на днешните големи езикови модели, разбира това добре. Той току-що напусна ръководна длъжност в Google, за да може да говори свободно за рисковете на технологията, за чието създаване е помогнал, включително, както каза пред New York Times, за риска хората „вече да не могат да знаят кое е вярно“.
Това е от голямо значение за твърдението, че ИИ ще помогне в борбата с климатичната криза. Защото, когато сме недоверчиви към всичко, което четем и виждаме в нашата все по-необикновена медийна среда, ние ставаме още по-малко подготвени да решаваме неотложни колективни проблеми. Кризата на доверието, разбира се, предшества ChatGPT, но няма съмнение, че разпространението на „дълбоките фалшификати“ ще бъде съпроводено от експоненциално нарастване на вече процъфтяващите конспиративни култури. И така, какво значение ще има, ако ИИ предложи технологични и научни пробиви? Ако тъканта на споделената реалност се разплита в ръцете ни, ще се окажем неспособни да реагираме с каквато и да е съгласуваност.
Халюцинация #2: ИИ ще осигури разумно управление
Тази халюцинация внушава близко бъдеще, в което политиците и бюрократите, опирайки се на огромната съвкупна интелигентност на системите с изкуствен интелект, са в състояние „да видят моделите на нуждите и да разработят програми, основани на доказателства“, които имат по-големи ползи за техните избиратели. Това твърдение идва от документ, публикуван от фондацията Boston Consulting Group, но то намира отзвук в много тинк-танк и консултантски фирми за управление. И е показателно, че именно тези компании – фирмите, наети от правителства и други корпорации, за да определят икономии на разходи, често чрез уволняване на голям брой работници – най-бързо се качиха на вълната на ИИ. PwC (бивша PricewaterhouseCoopers) току-що обяви инвестиция от 1 млрд. долара, а Bain & Company, както и Deloitte, според съобщенията са ентусиазирани да използват тези инструменти, за да направят клиентите си по-„ефективни“.
Както и при твърденията за климата, необходимо е да се запитаме: дали причината политиците да налагат жестоки и неефективни политики е липсата на доказателства? Невъзможност да се „видят моделите“, както се предполага в документа на BCG? Дали те не разбират човешката цена на нефинансирането на общественото здравеопазване по време на пандемии, на неинвестирането в непазарни жилища, когато палатките изпълват градските паркове, или на одобряването на нова инфраструктура за изкопаеми горива, докато температурите се покачват? Нуждаят ли се от изкуствен интелект, който да ги направи „по-умни“, ако използваме термина на Шмидт – или са достатъчно интелигентни, за да знаят кой ще финансира следващата им кампания или, ако се отклонят, ще финансира съперниците им?
Би било ужасно хубаво, ако ИИ наистина можеше да прекъсне връзката между корпоративните пари и безразсъдното правене на политики – но тази връзка е свързана с това, че на компании като Google и Microsoft е било позволено да пуснат своите чатботове на обществеността въпреки лавината от предупреждения и известните рискове. Шмидт и други от години водят лобистка кампания, в която казват на двете страни във Вашингтон, че ако не могат да продължат да работят с генеративен изкуствен интелект, необременени от сериозни регулации, западните сили ще бъдат изпреварени от Китай. Миналата година водещите технологични компании са похарчили рекордните 70 млн. долара за лобиране във Вашингтон – повече от петролния и газовия сектор – и тази сума, както отбелязва Bloomberg News, е в допълнение към милионите, похарчени „за широкия набор от търговски групи, организации с нестопанска цел и мозъчни тръстове“.
И все пак, въпреки че са запознати отблизо с начина, по който парите формират политиката в нашите национални столици, когато слушате Сам Алтман, главен изпълнителен директор на OpenAI – създател на ChatGPT – да говори за най-добрите сценарии за своите продукти, всичко това сякаш е забравено. Вместо това той сякаш халюцинира един свят, напълно различен от нашия, в който политиците и индустрията вземат решения въз основа на най-добрите данни и никога не биха изложили на риск безброй животи в името на печалба и геополитическо предимство. Това ни води до друга халюцинация.
Халюцинация #3: на технологичните гиганти може да се вярва, че няма да съсипят света
Запитан дали се притеснява от неистовата златна треска, която ChatGPT вече е отприщила, Алтман отговори, че се притеснява, но добави оптимистично: „Надявам се, че всичко ще се получи.“ За колегите си изпълнителни директори на технологични компании – тези, които се състезават да изтласкат конкурентните си чатботове – той каза: „Мисля, че по-добрите ангели ще победят.“
По-добри ангели? В Google? Почти съм сигурен, че компанията е уволнила повечето от тях, защото са публикували критични статии за ИИ или са критикували компанията за расизма и сексуалния тормоз на работното място. Още „по-добри ангели“ са напуснали по тревога от тези развития, последно Хинтън. Това е така, защото, противно на халюцинациите на хората, които печелят най-много от ИИ, Google не взема решения въз основа на това кое е най-добро за света – тя взема решения въз основа на това кое е най-добро за акционерите на Alphabet, които не искат да пропуснат най-новия балон, не и когато Microsoft, Meta и Apple вече са вътре.
Халюцинация #4: ИИ ще ни освободи от тежката работа
Ако благосклонните халюцинации на Силициевата долина се струват правдоподобни на мнозина, има една проста причина за това. Понастоящем генеративният изкуствен интелект се намира в етап, който можем да наречем фалшив социализъм. Това е част от познатия вече наръчник на Силициевата долина. Първо, създайте атрактивен продукт (търсачка, инструмент за картографиране, социална мрежа, видеоплатформа, споделено пътуване…); дайте го безплатно или почти безплатно за няколко години, без да има ясно изразен жизнеспособен бизнес модел („Играйте си с ботовете – казват ни, – вижте какви забавни неща можете да създадете! „); изказвайте много възвишени твърдения за това как го правите само защото искате да създадете „градски площад“ или „информационна общност“, или „да свържете хората“, като същевременно разпространявате свободата и демокрацията (и не сте „зли“). След това наблюдавайте как хората се пристрастяват към тези безплатни инструменти, а конкурентите ви обявяват фалит. След като полето се освободи, въведете таргетираните реклами, постоянното наблюдение, полицейските и военните договори, продажбите на данни и нарастващите абонаментни такси.
Много животи и сектори са били унищожени от предишни варианти на този наръчник – от таксиметрови шофьори до пазари за отдаване под наем и местни вестници. С революцията на изкуствения интелект този вид загуби могат да изглеждат като грешки при закръгляне, като учители, програмисти, визуални артисти, журналисти, преводачи, музиканти, болногледачи и много други хора ще бъдат изправени пред перспективата доходите им да бъдат заменени от дефектен код.
Не се притеснявайте, халюцинират ентусиастите на изкуствения интелект – ще бъде прекрасно. Кой все пак обича да работи? Казват ни, че генеративният изкуствен интелект няма да бъде краят на заетостта, а само на „скучната работа“ – чатботовете ще вършат всички разрушаващи душата, повтарящи се задачи, а хората само ще ги контролират. Алтман, от своя страна, вижда бъдеще, в което работата „може да бъде по-широко понятие, не нещо, което трябва да правиш, за да можеш да ядеш, а нещо, което правиш като творческа изява и начин да намериш удовлетворение и щастие“.
Това е вълнуваща визия за по-красив и неангажиращ живот, която се споделя от много левичари (включително зетя на Карл Маркс, Пол Лафарг, който написа манифест, озаглавен „Правото да бъдеш мързелив“). Но ние, левичарите, също така знаем, че ако печеленето на пари вече не е движещата сила на живота, то трябва да има други начини за задоволяване на нуждите ни от подслон и прехрана. Свят без мизерна работа означава, че наемът трябва да е безплатен, здравеопазването – безплатно, а всеки човек трябва да има неотменими икономически права. И тогава изведнъж изобщо не говорим за изкуствен интелект – говорим за социализъм.
Защото не живеем във вдъхновения от „Стар Трек“ рационален, хуманистичен свят, който Алтман изглежда халюцинира. Живеем в условията на капитализъм, а в тази система ефектът от наводняването на пазара с технологии, които могат да изпълняват икономическите задачи на безброй работещи хора, не е, че тези хора изведнъж са свободни да станат философи и художници. Това означава, че тези хора ще се окажат изправени пред бездната – като сред първите паднали ще бъдат истинските творци.
Това е посланието на отвореното писмо на Крабапъл, в което той призовава „художници, издатели, журналисти, редактори и лидери на журналистически съюзи да се обявят в защита на човешките ценности срещу използването на генеративни изображения с изкуствен интелект“ и „да се ангажират да подкрепят редакционното изкуство, създадено от хора, а не от сървърни ферми“. В писмото, подписано вече от стотици художници, журналисти и други, се посочва, че всички, освен най-елитните творци, намират работата си „в риск от изчезване“. И според Хинтън, „кръстникът на изкуствения интелект“, няма причина да се смята, че заплахата няма да се разпространи. Чатботовете отнемат „тежката работа“, но „може да отнемат и повече от това“.
Крабапъл и нейните съавтори пишат: „Изкуството на генеративния изкуствен интелект е вампирско, пирува с произведения на изкуството на минали поколения, докато изсмуква кръвта на живите художници.“ Но има начини да се противопоставим: можем да откажем да използваме тези продукти и да се организираме, за да поискаме от работодателите и правителствата си също да ги отхвърлят. В писмо от видни учени по етика на изкуствения интелект, сред които и Тимнит Гебру, който през 2020 г. беше уволнен от Google заради оспорване на дискриминацията на работното място, са посочени някои от регулаторните инструменти, които правителствата могат да въведат незабавно – включително пълна прозрачност за това какви масиви от данни се използват за обучение на моделите. Авторите пишат: „Не само че винаги трябва да е ясно кога се сблъскваме със синтетична медия, но и организациите, които изграждат тези системи, трябва да бъдат задължени да документират и оповестяват данните за обучение и архитектурите на моделите. …. Трябва да изграждаме машини, които работят за нас, вместо да „адаптираме“ обществото, за да може да се чете и записва от машините.“
Макар че технологичните компании биха искали да ни убедят, че вече е твърде късно да се върне назад този продукт, който замества човека и масово го имитира, съществуват изключително важни правни и регулаторни прецеденти, които могат да бъдат приложени. Например Федералната търговска комисия на САЩ (ФТК) принуди Cambridge Analytica, както и Everalbum, собственик на приложение за снимки, да унищожат цели алгоритми, за които е установено, че са били обучени на базата на незаконно присвоени данни и снимки. В началото на мандата си администрацията на Байдън направи много смели изявления за регулиране на големите технологии, включително за борба с кражбата на лични данни за създаване на собствени алгоритми. С наближаването на президентските избори сега е добър момент да се изпълнят тези обещания и да се предотвратят следващите масови уволнения, преди да са се случили.
Светът на дълбоките фалшификати, мимикрията и задълбочаващото се неравенство не е неизбежен. Това е набор от политически решения. Можем да регулираме сегашната форма на вампирски чатботове – и да започнем да изграждаме свят, в който най-вълнуващите обещания на ИИ ще бъдат нещо повече от халюцинации на Силициевата долина.
Защото ние обучихме машините. Всички ние. Но никога не сме давали съгласието си. Те се хранеха с колективната изобретателност, вдъхновението и откровенията на човечеството (наред с по-покварените ни черти). Тези модели са машини за ограждане и присвояване, които поглъщат и приватизират индивидуалния ни живот, както и колективното ни интелектуално и художествено наследство. И тяхната цел никога не е била да решат проблема с изменението на климата, да направят правителствата ни по-отговорни или ежедневието ни по-спокойно. Винаги е била да печелят от масовото обезличаване, което в условията на капитализъм е очевидната и логична последица от замяната на човешките функции с ботове.
Не е ли всичко това прекалено драматично? Задушаваща и рефлексивна съпротива срещу вълнуващи иновации? Защо да очакваме по-лошото? Алтман ни успокоява: „Никой не иска да разруши света.“ Може би не. Но както всеки ден ни показват все по-задълбочаващите се кризи, свързани с климата и изчезването на видове, много влиятелни хора и институции изглежда нямат нищо против да знаят, че помагат за разрушаването на стабилността на световните системи за поддържане на живота, стига да могат да продължат да реализират рекордни печалби, които според тях ще предпазят тях и семействата им от най-лошите последици. Самият Алтман, подобно на много създания на Силициевата долина, е подготвен: през 2016 г. той се похвали: „Имам оръжия, злато, калиев йодид, антибиотици, батерии, вода, газови маски от израелските отбранителни сили и голямо парче земя в Биг Сур, до което мога да летя.“
Сигурна съм, че тези факти говорят много повече за това, което Алтман всъщност вярва за бъдещето, което помага да се отприщи, отколкото за каквито и да било цветисти халюцинации, които той решава да сподели в интервютата за пресата.
*Наоми Клайн е автор на бестселърите „Без лого“ и „Шоковата доктрина“, професор по климатична справедливост и съдиректор на Центъра за климатична справедливост в Университета на Британска Колумбия.