Prichádzajú si po nás AI právnici? Čo by sme mali vedieť
Novo vydaný chatbot s umelou inteligenciou zložil univerzálnu advokátsku skúšku pre právnikov s pôsobivým skóre. Čo to znamená?
Tessa Lena, 22. apríla 2023
Tento príbeh je o dôsledkoch najnovšieho vývoja v oblasti právnych technológií. Skôr než sa k nemu dostaneme, chcem položiť otázku a len ju tam nechať – aby sme ju mali na pamäti, keď sa budeme pachtiť po najnovších zázrakoch sveta umelej inteligencie. Otázka znie, aký zmysel má naša existencia ako ľudských bytostí na Zemi?
Chatbot zložil predpísanú advokátsku skúšku
Medzi ľuďmi sa hovorí, že najnovšia umelá inteligencia podporovaná spoločnosťou Microsoft zložila univerzálnu advokátsku skúšku, teda skúšku, ktorú musia absolvovať právnici v Spojených štátoch, aby získali licenciu na výkon právnickej praxe. Nielenže ju úspešne zložila, ale jej výsledok "sa dostal medzi 10% najlepších účastníkov skúšky".
Softvér umelej inteligencie, ktorý vyrobil partner spoločnosti Microsoft, spoločnosť OpenAI, sa nazýva "GPT-4". Ide o upgrade programu GPT-3.5, na ktorom je založený známy program ChatGPT. Ak by vás to zaujímalo, "GPT" je skratka pre "Generative Pre-trained Transformer", čo je počítačový jazykový model, ktorý na tvorbu textu využíva "hlboké učenie".
Hlboké učenie znamená zhruba prečesávanie obrovského množstva údajov, algoritmické extrahovanie zmysluplných charakteristík rôznych typov a ich následné zhrnutie tak, aby to vyzeralo, že počítač "rozumie".
Tento softvér spadá pod definíciu "generatívnej umelej inteligencie", čo je typ umelej inteligencie, ktorá ide nad rámec analýzy veľkého množstva údajov a vytvárania súhrnu a ktorá je schopná generovať vlastné "kreatívne" výstupy na základe analyzovaných údajov.
Podľa technickej správy OpenAI GPT-4 bol program testovaný "na rôznorodom súbore referenčných kritérií vrátane simulácie skúšok, ktoré boli pôvodne určené pre ľudí".
Interlúdium
Môžem, prosím, využiť túto príležitosť a vyjadriť svoje rozčúlenie nad popularizáciou hipsterského používania slova "humans" namiesto "ľudia", akoby niekedy mal nastať okamih, keď sa roboti stanú vnímavými a začnú sa podieľať na živote spoločnosti nie ako druh technológie v rukách toho, kto je za ňu zodpovedný, ale ako samostatné živé bytosti?
To sa, samozrejme, nikdy nestane (hoci majitelia patentov sa môžu tak tváriť). Je to nezmysel a fikcia. Ale nazývať ľudí "humans" zavádza nový pohľad na seba samých externalizovanými mechanickými očami. Je to ďalší magický trik bláznov na vysokých stoličkách, ktorý nás má odpojiť od našej vrodenej osobnosti a našej duše. Pomáha to aj tyranom, ktorí chcú zaviesť "robotických občanov" a dať im "práva".
Medzi "robotických občanov" môžu patriť aj "finančníci", aby ospravedlnili podvod! A keď sa skutoční ľudia budú sťažovať na absurditu založenú na tom, že roboti v skutočnosti nie sú "ľudia", budú obvinení z toho, že majú nejakú fóbiu.
Používanie "humans" namiesto "ľudia" pri opise nás všetkých len uľahčuje tento podvod, pretože, sú tieto stroje alebo softvérové produkty ľudia? Očividne nie sú. Vieme, že to nie sú ľudia. Ale sú možno trochu podobné ľuďom? Snažia sa byť ľuďmi? Chcú byť ľuďmi? Zaslúžia si byť ľuďmi? Nemyslíte si, že si prinajmenšom zaslúžia práva podobné ľudským? atď.
Späť k téme AI, ktorá zložila advokátsku skúšku
Každopádne podľa spoločnosti OpenAI spoločnosť použila potrebné opatrenia, aby zabezpečila, že produkt AI nebude len mechanicky reprodukovať už známe správne odpovede na už známe otázky advokátskej skúšky. Podľa ich vlastných slov: "Neuskutočnili sme žiadne špeciálne školenie pre tieto skúšky. Menšinu problémov v skúškach videl model počas tréningu; pre každú skúšku sme spustili variant s týmito otázkami odstránenými a uvádzame nižšie skóre z týchto dvoch variantov. Veríme, že výsledky sú reprezentatívne."
"Skúšky pochádzali z verejne dostupných materiálov. Otázky skúšky obsahovali otázky s výberom odpovede aj otázky s voľnou odpoveďou; pre každý formát sme navrhli samostatné výzvy a v otázkach, ktoré to vyžadovali, boli do vstupných údajov zahrnuté obrázky.
Nastavenie hodnotenia bolo navrhnuté na základe výkonu na overovacom súbore skúšok a uvádzame konečné výsledky na zadržaných skúšobných testoch. Celkové výsledky boli určené kombináciou výsledkov otázok s výberom odpovede a otázok s voľnou odpoveďou s použitím verejne dostupných metodík pre každú skúšku."
"Na simulovanej advokátskej skúške dosahuje GPT-4 skóre, ktoré patrí medzi 10% najlepších účastníkov skúšky. To je v kontraste s GPT-3.5, ktorá dosahuje skóre na úrovni 10%." Tu sú jednotné výsledky advokátskej skúšky a pre výsledky testu LSAT podľa technickej správy GPT-4:
Jednotná právnická skúška (MBE+MEE+MPT)
GPT-4: 298 / 400 (približne 90. percentil)
GPT-4 (bez videnia): 298 / 400 (približne 90. percentil)
GPT-3.5: 213 / 400 (približne 10. percentil)
LSAT
GPT-4: 163 (približne 88. percentil)
GPT-4 (bez videnia): 1,5 % (8,5 %): (približne 83. percentil)
GPT-3.5: 149 (približne 40. percentil)
Tu je hodnotenie tohto softvéru, ktoré napísal Dr. Lance Eliot a ktoré bolo uverejnené na stránke law.com:
Znamená alebo dokazuje úspešné absolvovanie simulovanej jednotnej advokátskej skúšky, že GPT-4 je právne spôsobilý a plne pripravený vykonávať právne úlohy na úrovni ľudských právnikov?
Odpoveď je jednoznačné nie, a síce, že napriek náznakom alebo narážkam typu "žmurk-žmurk" možno rozumne povedať len to, že GPT-4 dokázal využiť svoje rozsiahle počítačové porovnávanie vzorov slov súvisiacich s inými slovami na úspešné odvodenie odpovedí na predložené skúšky.
Môj komentár: Myslím si, že je dôležité zdôrazniť skutočnosť, že zložka "žmurknutia" je veľkou súčasťou mýtu o umelej inteligencii. Musíme si ju uvedomiť, keď ide o všetku "prácu" s UI, nielen o úlohy, ktoré vykonávajú ľudia v rámci svojej v súčasnosti ešte stále prestížnej kariéry. A je možné, že keď nadriadení prišli so svojimi dopravníkmi a "riadením systémov", jednoducho nás oklamali do bodky! Vráťme sa k analýze doktora Eliota:
"Ako som uviedol vo svojom predchádzajúcom zverejnenom článku s názvom "Najlepšie spôsoby využitia generatívnej umelej inteligencie vo vašej právnickej praxi", treba byť opatrný pri preceňovaní toho, čo môže generatívna umelá inteligencia dosiahnuť. Okrem toho porovnanie GPT-4 s "výkonom na úrovni človeka" zaváňa antropomorfizáciou umelej inteligencie. Ide o nebezpečnú šmykľavú cestu, ktorá vedie ľudí k prvotnému presvedčeniu, že súčasná UI je vnímavá alebo má schopnosti podobné ľudským.
Generatívna umelá inteligencia, ako je GPT-4, je mimoriadne užitočná ako pomôcka pre právnikov a môže byť obrovským prínosom pri vykonávaní právnych úloh. Napriek tomu je spoliehanie sa výlučne na generatívnu AI pri právnických činnostiach nerozumné a nesprávne.
Hlavným záverom pre právnikov je, že by ste mali vážne a dôkladne zvážiť využitie generatívnej AI, ako je GPT-4. O tom niet pochýb. GPT-4 je v pomoci právnikom ešte lepšia ako ChatGPT. Stále opakujem, že právnici a advokátske kancelárie využívajúce generatívnu AI predbehnú a prekonajú advokátov a firmy, ktoré generatívnu AI nevyužívajú."
Generatívna AI
Poďme na chvíľu hovoriť o generatívnej AI. Tu je to, čo uvádza agentúra Reuter's:
"Generatívna umelá inteligencia sa tento rok stala módnym slovom, ktoré zaujalo verejnosť a vyvolalo zhon spoločností Microsoft (MSFT.O) a Alphabet (GOOGL.O) pri uvádzaní produktov s technológiou, ktorá podľa nich zmení povahu práce."
"Najznámejšou aplikáciou generatívnej umelej inteligencie je ChatGPT, chatbot, ktorého koncom minulého roka vydala spoločnosť OpenAI podporovaná Microsoftom. Umelá inteligencia, ktorá ho poháňa, je známa ako veľký jazykový model, pretože prijíma textovú výzvu a na jej základe napíše odpoveď podobnú ľudskej."
"GPT-4, novší model, ktorý OpenAI oznámila tento týždeň, je "multimodálny", pretože dokáže vnímať nielen text, ale aj obrázky. Prezident spoločnosti OpenAI v utorok predviedol, ako dokáže zobrať fotografiu ručne nakreslenej makety webovej stránky, ktorú chcel vytvoriť, a z nej vygenerovať skutočnú."
Tu je moja obľúbená časť: "Výskumníci v oblasti kybernetickej bezpečnosti tiež vyjadrili obavy, že generatívna umelá inteligencia by mohla umožniť zlým aktérom, dokonca aj vládam, produkovať oveľa viac dezinformácií ako doteraz." Ale nie, vlády šíriace dezinformácie? Nemožné. Nikdy sa to v histórii ľudstva nestalo. Aspoň nie naša vláda. Ani tu, ani teraz, ani proti nám (uf). Krátke vysvetľujúce video agentúry Reuters (nahovorené umelou inteligenciou?).
Venovať pozornosť prevrátenej reči umelej inteligencie
Jednou z vecí, ktorým treba venovať pozornosť v rozhovoroch o AI, je používanie slova "poškodiť". Čo je to "škodlivý jazyk"? Na intuitívnej úrovni to vieme (napríklad výzvy k násiliu alebo zneužívaniu detí sú v skutočnosti škodlivým jazykom) – ale v oficiálnom, robotickom kontexte je "škodlivý jazyk" to, čo sa v daný deň povie.
V imaginárnej čestnej spoločnosti, v spoločnosti, kde by sa vedúci predstavitelia nesnažili zahrávať s jazykom a s hlavami ľudí, by snaha zaviesť prísnu kontrolu toho, čo môže vychádzať z úst robota, mohla byť neutrálnym a ušľachtilým cieľom. Koniec koncov, je to robot. Ale nežijeme v čestnej spoločnosti, spoločnosti, a vodcovia sa už snažia označiť akékoľvek "nesprávne myslenie" za "nenávistný prejav".
Takže je prirodzené, že ako bude trend s umelou inteligenciou pokračovať a ako bude umelá inteligencia nahrádzať pedagógov a byrokratické rozhodovanie, ľudia, ktorí čelia cenzúre, by mohli byť čoraz viac tlačení do mučenia "rozprávania do ruky". Mechanickej ruky.
Na ozbrojenie jazyka a automatizované interakcie som myslel často. V mojom rozhovore s doktorom Bruceom Dooleym sme diskutovali o ozbrojovaní slova "harm" (poškodiť) v medicíne zo strany Federácie štátnych lekárskych rád. V mojom článku "Kto je terorista?" z roku 2022 som sa venovala téme, ktorá sa týka liečby, som písala o myšlienkach o škodlivosti a dezinformáciách, ktoré minulý rok predložilo ministerstvo zdravotníctva. A niekoľko rokov pred COVIDom som napísala esej s názvom "Láska a automatizácia: Hrozivý dotyk mechanickej matky":
"Obhajcovia efektivity sa ju zvyčajne snažia vnútiť iným ľuďom – pričom sami si dovoľujú zostať rovnako ľudskí a slobodní, ako by chceli byť. Známym príkladom je to, ako ľudia ako Steve Jobs a Bill Gates obmedzujú prístup svojich vlastných detí k technológiám a zároveň zvyšku sveta hovoria, že technológie sú univerzálne a všadeprítomne úžasné.
Majitelia tovární s radosťou vnucujú efektivitu bývalým nezávislým remeselníkom a ich potomkom. Manažéri kancelárií vnucujú efektivitu kancelárskym otrokom. Tvorcovia softvéru predávajú efektivitu širokej populácii. Ale na vlastnej koži sa predajcovia efektívnosti radi pozerajú na oblohu a cítia vôňu kvetov."
Čo sa dá urobiť s umelou inteligenciou v oblasti práva?
Od tejto sekundy môže AI možno vykonávať prácu, ktorú zvyčajne vykonávajú asistenti a mladší právnici. Dokáže prispôsobiť dokumenty založené na šablónach, ako sú zmluvy a formuláre listov. Dokáže rýchlo prejsť obrovské hromady dokumentov a zhrnúť prípad, aby ho mohli preskúmať starší právnici. Môže tiež písať návrhy právnych dokumentov s uvedením zákonov a precedensov, ktoré sa na ne vzťahujú.
Podľa prehľadu Brookings Institution sa v oblasti práva môže umelá inteligencia postarať o niektoré časovo najnáročnejšie úlohy:
"Zoberme si jednu z časovo najnáročnejších úloh v súdnych sporoch: extrahovanie štruktúry, významu a podstatných informácií z obrovského súboru dokumentov, ktoré sa vytvárajú počas zisťovania. Umelá inteligencia tento proces výrazne urýchli a v priebehu niekoľkých sekúnd vykoná prácu, ktorá by bez umelej inteligencie mohla trvať týždne. Alebo zvážte prípravu návrhov na podanie na súd.
AI sa môže použiť na veľmi rýchle vypracovanie počiatočných návrhov, citovanie príslušnej judikatúry, predloženie argumentov a vyvrátenie (ako aj predvídanie) argumentov predložených právnym zástupcom protistrany. Na vypracovanie konečného návrhu bude stále potrebný ľudský vstup, ale vďaka AI bude tento proces oveľa rýchlejší."
"V širšom zmysle AI umožní advokátom oveľa efektívnejšie vypracúvať dokumenty, ktoré si vyžadujú vysoký stupeň prispôsobenia - proces, ktorý tradične zaberá značné množstvo času advokátov.
Príkladom sú zmluvy, mnoho rôznych typov dokumentov, ktoré sa podávajú na súd v súdnom spore, odpovede na výsluchy, zhrnutia pre klientov o nedávnom vývoji v prebiehajúcej právnej veci, vizuálne pomôcky na použitie v súdnom konaní a návrhy zamerané na získanie nových klientov.
Umelá inteligencia by sa mohla používať aj počas súdneho konania na analýzu zápisnice zo súdneho konania v reálnom čase a na poskytovanie vstupných informácií advokátom, ktoré im môžu pomôcť pri výbere otázok, ktoré majú položiť svedkom."
"DoNotPay"
Jeden z prvých populárnych produktov právnej technológie AI, označený ako "prvý robotický právnik na svete", vytvoril v roku 2015 Josh Browder, zakladateľ spoločnosti DoNotPay. Tento konkrétny softvér bol navrhnutý tak, aby pomáhal ľuďom písať účinné odpovede a listy na boj proti nespravodlivo vydaným pokutám, zrušenie predplatného a podobne. Keď sa o ňom začalo hovoriť, spoločnosť dokázala získať významné finančné prostriedky od investorov.
V januári 2023 spoločnosť oznámila, že ich umelá inteligencia bude na súde pôsobiť ako neformálny "advokát", ktorý pomôže klientovi bojovať proti pokute za prekročenie rýchlosti.
"Program vycvičený pomocou umelej inteligencie má budúci mesiac pomôcť obžalovanému napadnúť jeho prípad na americkom súde... Namiesto oslovenia súdu bude program, ktorý bude spustený na smartfóne, dodávať vhodné odpovede prostredníctvom slúchadla obžalovanému, ktorý ich potom môže použiť v súdnej sieni.
Keďže ide o úplne prvý prípad umelej inteligencie, spoločnosť DoNotPay je pripravená prevziať bremeno trestu, ak rady umelej inteligencie klientovi nepomôžu. Keďže ide o pokutu za prekročenie rýchlosti, DoNotPay zaplatí pokutu za prekročenie rýchlosti. Ak však vyhrá, bude mať na konte obrovské víťazstvo." Umelá inteligencia mala klientovi pomôcť na súde vo februári 2023. To však nestalo.
https://twitter.com/jbrowder1/status/1618265395986857984
Dobré ráno! Zlé správy: po tom, čo som dostal vyhrážky od štátnych prokurátorov, sa zdá pravdepodobné, že ma zavrú na 6 mesiacov do väzenia, ak budem pokračovať v tom, aby som priviedol robotického právnika do fyzickej súdnej siene. DoNotPay sa odkladá náš súdny prípad a drží sa práv spotrebiteľov
A potom bola spoločnosť zažalovaná za "vykonávanie právnej praxe bez licencie". "Robotický právnik čelí navrhovanej skupinovej sekcii žaloby, ktorú podala právnická firma Edelson so sídlom v Chicagu a ktorá bola zverejnená na webovej stránke Najvyššieho súdu štátu Kalifornia pre okres San Francisco."
Podľa mňa to vyzerá tak, že lacnú verziu umelej inteligencie zameranú na ľudí považujú veľkí chlapci za hrozbu, a tak tomu chcú zabrániť. Teda, viete si predstaviť svet, v ktorom nízko postavení nevoľníci používajú lacno dostupné produkty AI (rýchlu kalkulačku) na svoj prospech – a možno aj bez toho, aby posielali všetky svoje osobné údaje do centrálnej materskej lode? Rozhorčenie.
"Ross"
Ďalším produktom umelej inteligencie, tiež označeným ako "prvý umelo inteligentný právnik, bol Ross". "Ross" bol produkt AI vyrobený spoločnosťou Ross Intelligence, startupom, ktorý v roku 2014 založili traja kanadskí študenti. Produkt vychádzal zo série produktov AI pre sériu Watson od spoločnosti IBM. Spoiler: Spoločnosť bola v roku 2020 zrušená. Tu je z časopisu Futurism (2016):
"Advokátska kancelária Baker & Hostetler oznámila, že využíva AI Ross od IBM na spracovanie svojej konkurznej praxe, ktorú v súčasnosti tvorí takmer 50 právnikov. Podľa generálneho riaditeľa a spoluzakladateľa spoločnosti Andrewa Arrudu podpísali licencie s Rossom aj ďalšie firmy, ktoré to tiež čoskoro oznámia."
"Ross, prvý umelo inteligentný právnik na svete postavený na kognitívnom počítači Watson spoločnosti IBM, bol navrhnutý tak, aby čítal a rozumel jazyku, postuloval hypotézy pri položení otázok, skúmal a potom generoval odpovede (spolu s odkazmi a citáciami) na podporu svojich záverov. Ross sa tiež učí na základe skúseností, pričom čím viac s ním komunikujete, tým viac získava rýchlosť a vedomosti."
Ale ako som už povedal, v roku 2020 bol Ross Intelligence odstavený. Zdá sa, že to nesúviselo so žiadnymi základnými filozofickými otázkami používania umelej inteligencie v oblasti práva - ale s konkurenciou spoločností. Išlo skôr o boj davov a otázku, kto bude mať prospech z potenciálneho dolárového vodopádu.
K ukončeniu činnosti došlo v dôsledku zablokovania financovania spoločnosti na základe žaloby podanej spoločnosťou Thompson Reuters, ktorá tvrdila, že spoločnosť Ross Intelligence použila údaje TR na vytvorenie svojej právnej technickej AI.
"Spoločnosť ROSS Intelligence, ktorá sa snažila inovovať právny výskum pomocou umelej inteligencie a ktorá pomohla zvýšiť povedomie o umelej inteligencii v celom právnom odvetví, ukončuje svoju činnosť, pretože žaloba, ktorú proti nej podala spoločnosť Thomson Reuters, ochromila jej schopnosť získať nové financovanie alebo preskúmať potenciálnu akvizíciu a ponechala ju bez dostatočných finančných prostriedkov na prevádzku."
"Spoločnosť Thomson Reuters zažalovala v máji spoločnosť ROSS, pričom tvrdila, že ukradla obsah zo systému Westlaw s cieľom vytvoriť svoj vlastný konkurenčný produkt pre právny výskum. Spoločnosť ROSS to podľa TR urobila tak, že "úmyselne a vedome" prinútila spoločnosť LegalEase Solutions, ktorá sa zaoberá právnym výskumom a písaním, aby využívala jej účet v systéme Westlaw na hromadné poskytovanie údajov zo systému Westlaw spoločnosti ROSS."
Vlastník AI udáva tón
Ako zvyčajne, diabol sa skrýva v detailoch. Ak sa technológia AI použije na pomoc bežným ľuďom pri plnení úloh, ktoré boli doteraz mimo dosahu bez toho, aby boli bohatí – a bez zneužívania údajov odkladaním na centrálnu materskú loď –, môže to byť užitočná vec.
A to bude predajný bod v počiatočných fázach zavádzania technológie. Návnada má chutiť, takto to funguje vždy.
Ale ak sa vytvorí kolektívny návyk na používanie chatbotov a súvisle znejúcich, jazyk produkujúcich rýchlych kalkulačiek v našom každodennom profesijnom živote a po naberaní dostatočného množstva údajov sa užitočné veci presunú za veľmi tučný paywall. A možno sa v tom čase "znehodnotia" právnici strednej a dokonca aj vyššej strednej triedy, tak ako sa "znehodnotili" mnohí pred nimi. To ukáže čas!
"Postupne, a potom náhle": Dobývanie
Hovorme o koncepte nástrahy. Život funguje záhadným spôsobom a história funguje v dlhých časových intervaloch. Útok na ľudské konanie a osobnosť, na náš vzťah k prírode a na naše vlastné citové bohatstvo sa začal pred tisíckami rokov. Dnes máme do činenia nielen so zámermi a neustálymi podvodmi Klausa Schwaba, alphabets (narážka na Google a materskú spoločnosť Alphabet?) a ich majiteľov hore – ale aj s dôsledkami podvodov, ktoré nastolili tyrani a podvodníci z minulosti.
Dnes platíme nielen za kolektívne nedokonalé rozhodnutia ľudí pod čižmou veľkých tyranov dneška (vrátane našich vlastných) – ale aj za nedokonalé rozhodnutia tyranských obetí z minulosti, keď sa niektorí ľudia možno zľakli, zastrašili, podviedli alebo podplatili, aby prijali kompromisy duše svojej doby.
A potom tento kompromis preniesli na svoje deti. A tie ho odovzdali svojim deťom. A tak ďalej. Vidíte, ako to funguje?
Aj v menšom meradle to funguje "postupne, a potom náhle". Napríklad model pripravenosti USA na pandémiu, ktorá nás všetkých postihla v roku 2020, bol spustený začiatkom roku 2000, za Busha. Po tom, ako bol pripravený, sedel 15 rokov za kríkom (slovná hračka!) a čakal, kým vstúpi na scénu. A potom vstúpil na scénu s pomstou. A sme tu!
Odsúdenie algoritmického modelu
Všetok tento vývoj v oblasti umelej inteligencie môže byť komplimentom pre silu technológie, ale je aj odsúdením stavu našej civilizácie.
Pamätáte si na otázku, ktorú som položila na začiatku? Pýtala som sa, aký je zmysel nášho času na Zemi? A čo robíme s našou civilizáciou, ak je náš život taký mechanický, že aj hlúpa rýchla kalkulačka dokáže našu "intelektuálnu prácu" vykonávať efektívnejšie ako my? Čo je naša "práca"?
Dostala nás – postupne, a potom náhle? Stali sa naše vlastné "ľudské" kognitívne modely a uhly pohľadu, z ktorých analyzujeme svet, takými algoritmickými, že nás v "myšlienkovej" úlohe dokáže prekonať hlúpy stroj? Nie je to dobré.
A keď už hovoríme o práve, boli v dejinách časy – predtým, ako sa naše spoločenstvá a jednotliví ľudia stali neviditeľnými pešiakmi pod rôznymi dominantnými entitami – keď dokonca ani "právo a poriadok" neboli algoritmické, ale vychádzali zo subjektívnej a úprimnej túžby robiť to, čo je správne v duchovnom zmysle.
A myslím si, že na miestnej úrovni sa to občas ešte deje, ale mentalita "nadvlády" otrávila naše mysle a algoritmus bol zavedený, aby udržal zdanie dobra tam, kde bolo dobro podkopané.
Myslím si, že existenciálnou úlohou strašného Veľkého resetu je, aby sa tento algoritmický jed stal takým veľkým, takým zjavným pre naše oči, že už jednoducho nemôžeme byť v popretí a musíme sa vzbúriť proti dávnemu zneužívaniu našich duší. Pretože my sme viac než len súbor vzorcov. Sme viac ako algoritmy.
Sme z ducha a vody, máme dušu, dokážeme sa orientovať v subjektivite a darí sa nám v nej, dokážeme cítiť, dotýkať sa, milovať, vychutnávať si vzťahy – a to je zmysel toho, že sme tu.
Práve pocit, že žijeme – dych a koža – je dôvod, prečo sme tu. A keď sa nás niekto pokúša ešte viac zredukovať na stroje na porovnávanie vzorov, máme plné právo povedať "nie". Tento článok by som rada ukončila citátom zo sci-fi poviedky, ktorú som napísala v roku 2019 (v roku 2020 som do nej pridala len riadok o pandémii):
"Aby získali kontrolu nad ekonomikou a ľudskými telami, museli najprv získať kontrolu nad myslením ľudí. Preto vytvorili silný tlak na presun všetkých hlavných ľudských činností do digitálnej oblasti, keďže digitálne stopy sa spočiatku dali oveľa ľahšie sledovať a speňažiť. Vytvorili chlebové cestičky a spôsobili, že prechod vyzeral ako zábava.
Zároveň si vybudovali silné vzťahy s niektorými z najvplyvnejších občanov a organizácií tej doby. Technickí lídri sľubovali orgánom činným v trestnom konaní jednoduché sledovanie – a bežným občanom bezplatný prístup k vzdelávaniu a zábave. Všetci si mysleli, že dostávajú skvelú ponuku!
Dali ľuďom dovtedy nevídané možnosti vytvárať nové svety – na strane vývojárov aj používateľov –, ale nikto okrem vrcholových predstaviteľov netušil, že tieto nové svety sú vybavené skrytými sledovacími zariadeniami a zradnými vypínačmi, ktoré sa môžu kedykoľvek aktivovať.
Prvé varovania prišli od umelcov, ktorí prišli na to, že ich diela sa používajú ako návnada na prilákanie ľudí na technologické platformy. Umelecké typy však neboli rešpektovanými členmi spoločnosti a ich výkriky boli utopené v optimistických rečiach o svetlej budúcnosti všetkého.
Potom prišli na rad médiá. Po tom, čo sa začali rozpadávať spravodajské spoločnosti a mnohí novinári sa ocitli bez príjmu, pochopili, že hra je zmanipulovaná. Ale aj oni boli zmietnutí z cesty. Niektorí sa dohodli a prijali financovanie technológií, z niektorých sa stali pracovníci gig economy* a niektorí sa naučili kódovať.
*Gig ekonomika je systém voľného trhu, v ktorom sú bežné dočasné pozície a organizácie najímajú nezávislých pracovníkov na krátkodobé záväzky. Pojem "gig" je slangový výraz pre prácu, ktorá trvá určitý čas. Tradične tento termín používali hudobníci na definovanie koncertných vystúpení. Medzi príklady gigových pracovníkov patria pracovníci na voľnej nohe, nezávislí dodávatelia, pracovníci na projektoch a dočasní zamestnanci alebo zamestnanci na čiastočný úväzok. Na prepojenie zákazníkov a gigových pracovníkov sa často používajú gigové aplikácie a digitálne technológie. Gig ekonomika je trendom poslednej doby, pričom k jej vzostupu prispelo viacero faktorov. Dva najdôležitejšie faktory sú tieto: 1. Pracovná sila sa stala mobilnejšou. 2. Práca sa čoraz častejšie vykonáva na diaľku prostredníctvom digitálnych platforiem. – V dôsledku toho sa oddeľujú pracovné miesta od miest. To znamená, že pracovníci na voľnej nohe môžu prijať prácu alebo projekt u zamestnávateľa kdekoľvek na svete. Zamestnávatelia si zároveň môžu vybrať najlepšieho človeka na konkrétny projekt z väčšej skupiny, ako je k dispozícii v danej oblasti.
Potom, v kritickom okamihu, nastala akási pandémia a mocným technologickým lídrom, vrátane niektorých oficiálnych svätcov IHT, sa podarilo využiť svoj vplyv na vlády a právne nariadiť digitalizáciu všetkých aspektov života. Vtedy sa neregulovaný kontakt s ľuďmi stal nezákonným a inteligentné nositeľné zariadenia a asistenti s umelou inteligenciou sa stali povinnými.
V čase, keď boli právnici, lekári, bankári a vládni úradníci osobne ovplyvnení a prakticky zotročení v masovom meradle, už bolo neskoro. Veľké technológie kontrolovali každý aspekt života, všetko sledovali a financovali každé odvetvie. Stala sa štandardnou agentúrou na presadzovanie práva a štandardným vydavateľom správ, a tak mala moc urobiť alebo zlomiť každého odborníka, akademika alebo politika.
Všetci – od vlád až po asistentov na nízkej úrovni až po robotov – boli závislí od technológie pri každej životnej funkcii. Povolenia na sex a deti si vyžadovali bezchybné skóre digitálneho občana. Nikto nemohol získať ani nízkoúrovňovú prácu bez toho, aby sa riadil algoritmami – a väčšina pracovných miest bola aj tak automatizovaná. Mestské úrady dlhovali peniaze za inteligentnú údržbu mesta. Zovretie bolo totálne.
A hoci sa mnohí inštinktívne cítili znepokojení, že sa vzdávajú súkromia a kognitívnej autonómie, cítili sa aj osamelí a bezmocní. Pracovných miest mimo oblasti technológií bolo málo, konkurencia bola tvrdá a len málokto si mohol dovoliť ten luxus, aby vôbec uvažoval o širších súvislostiach. Ľudia sa teda držali pri zemi a robili to, čo museli, aby uživili svoje rodiny – dodržiavali predpisy, nosili povinné inteligentné masky a učili sa kódovať, ak im to dovolili.
Najdlhšie si finančnú nezávislosť a kognitívnu autonómiu zachovávali vývojári a iní pracovníci technologického priemyslu na vysokej úrovni – uzavreté komunity programátorov sa stali súčasťou každého inteligentného mestského centra – ale nakoniec aj oni zastarali, pretože umelá inteligencia sa stala dostatočne sofistikovanou na to, aby sa rozvíjala a vyrábala sama.
Krátko po tom, ako bola inštitúcia biologicky ohrozeného riadenia znehodnotená, sa z Big Tech stala medziplanetárna Holy Tech a zvyšok už poznáte.