Petr Špecián: Zavítal jsem na přednášky z filozofie a trajektorie mojí kariéry se nav ****************************************************************************************** * ****************************************************************************************** „Jedeme po několika kolejích zároveň a na každé jedeme jinak rychle,“ popisuje současnou t situaci Petr Špecián, zakladatel AI Institutional Transformation Research Group [ URL "htt www.institutional-transformation.ai/home"] . Ve svých výzkumech se zajímá o adaptaci insti technologie, velké jazykové modely a jejich využití v praxi nebo obecně o podobu a vztah d expertízy v digitální době. Jak se mění výzkumné metody? Halucinují velké jazykové modely? obsahuje AI? Cesta k těmto otázkám však začala jindy a jinde. Foto: Ondřej Trojan Máte původně ekonomické vzdělání z Vysoké školy ekonomické. Co vás přivedlo na Fakultu hum Zajímal jsem se o filozofii na střední škole, ale nakonec jsem se pragmaticky rozhodl jít mezinárodní obchod. Tam mě nicméně náhoda zavála zpátky. Začal jsem chodit na přednášky z následně jsem zakotvil tady na FHS na bakaláři. Pokračoval jsem i na magisterském, ale ned už jsem byl v prvním stádiu doktorátu na VŠE. Co z dosavadní cesty vnímáte jako nejdůležitější krok? Pro mě byla nejdůležitější ta náhoda s filozofií na VŠE, kterou jsem neměl ani zapsanou. S tehdy přišel a říkal: „Tohle by se ti mohlo líbit, rád se vrtáš v knížkách.“ Tak jsem tam a trajektorie mojí kariéry se navždy změnila. Další dílčí aktivity už navazovaly na směr, začal utvářet. O filozofii mám tendenci uvažovat v kontextu ekonomie, takže mé aktivity by interdisciplinární. To platí dodnes ve všech mých projektech, tady i na VŠE. Zajímáte se o probíhající a očekávané dopady umělé inteligence na společnost. Změny přichá rychle, často je nestíháme a neumíme osvojit dřív, než zas přijde něco nového. Stíháme ale výzkumníci a vědci sledovat tyto změny? To je složitější otázka. Naše pozice výzkumníků je v tuhle chvíli ošemetnější než jindy, p říkáte, vývoj v terénu je extrémně rychlý. Ujíždí nám půda pod nohama: než naplánujeme věd technologie se může posunout. Když takový projekt píšeme, musíme bojovat s tím, aby nebyl – na druhou stranu, když není dostatečně specifický, je problém získat financování. V naší skupině nezkoumáme technickou stránku AI, protože nejsme technicky zaměření, ale sp společenské adaptace na její přítomnost. Situace v terénu je taková, že s novou technologi experimentovat jednotlivci a zkoušet, co umí. K nim je jednak komplikované se dostat a jed pokusy často nezralé a hodně závislé na okolnostech, takže z nich těžko lze dělat závěry n úrovni. Respektive máme v týmu kvalitativně zaměřené lidi, kteří na to budou asi mít jiný mě je tohle příliš neukotvená věc. Zajímá mě, kde technologie prorůstá do organizací a ins třeba vysoké školy. Ty se přizpůsobují pomaleji, ale taky představují pro výzkum stabilněj Každá nová technologie s sebou přináší i novou metodologii. Může se objevit nová metoda, k projekt třeba vhodnější než ta původní. Můžete ji dynamicky měnit? Projekty, které jsem zatím k tématu podával, byly hodně filozofické a hodně otevřené, co s Myslím, že to je výhoda filozofie, metoda tu není tak svazující, a hlavně se tolik nečeká, jasně vymezená už v momentě, kdy projekt vzniká. Rozehrávali jsme proto náš výzkum spíše o metod jsme uvedli širší spektrum s tím, že když náš projekt uspěje v grantové soutěži, tak uvidíme, co funguje a co ne. Zároveň budeme mít svobodu adaptovat se na novou situaci. Něk metodologickou otevřenost nevyjde, zrovna v jednom projektu nám ji recenzenti otloukli o h jsme kvůli ní financování. V jiném nevadila a prošel. Takže smíšené výsledky. A jaké nové metody se objevují? Když dnes děláte výzkum „na lidech,“ je extrémně časově a zdrojově náročný, často navíc i Jako čím dál zajímavější se mi proto zdá možnost simulovat výzkumné subjekty pomocí inteli technologií. Již existují explorativní výzkumy, které demonstrují schopnost velkých jazyko interagovat a „hrát si na lidi.“ V jedné studii se třeba avataři ovládaní těmito modely do udělají valentýnskou oslavu a ve správný čas se řada z nich sešla na správném místě. Je to metodologického zvratu, u kterého je velká šance, že by mohl nastat. Do výzkumů by následně mohl vnést určitou mezifázi, kdy se s pomocí AI-avatarů nasimulují na jejichž základě pak můžeme lépe připravit finální, nejvíce nákladnou fázi ověření výsle lidech. Že by to mohlo brzo úplně nahradit práci s lidmi si nemyslím, protože technologie specifickým způsobem a my si nemůžeme být jistí, nakolik výsledky simulací odrážejí lidské tady musí být nějaká přechodová fáze, která by nám to pomohla lépe ohledat. Ale jako společenský vědec bych měl začít dávat pozor, protože tyto nové metodologické hor pro mě mohly představovat něco zajímavého a nosného, i když zatím ještě není úplně jasné, to bude vypadat. Až začneme možnosti AI v tomto směru testovat rigorózněji, můžou se ukáza které jsou extrémně obtížně překonatelné. A nebo naopak AI-simulace budou připomínat exper natolik přesně, že velkou část z nich ani nebudeme muset dělat, třeba v situacích, kdy nen Samozřejmě když chystáme nějaké strašně důležité rozhodnutí, které ovlivní životy lidí, st být přísnější. Ale když půjde o něco méně seriózního, možná bude stačit sjet na počítači z tři simulace a ušetřit rok života a tři empirické studie na lidech. Jedním z vašich témat je i demokracie v digitálním věku. Čím se liší dnešní demokracie od příchodem internetu? Jedeme po několika kolejích zároveň a na každé jinak rychle. Technologická kolej jede nejr institucionální mnohem pomaleji, a základní lidské hodnoty se posouvají nejpomaleji. Techn se tím pádem proměnil mnohem víc než instituce, které utvářejí demokracii. Došlo sice k úp rozšíření volebního práva, ale demokratické ústavy – i ty relativně nové, jako je ta česká z hluboce historicky zakořeněných principů, které jsou dlouhodobě velmi stabilní. Systému stabilitě, že lidé je berou jako neměnné. Ale jak se nám mění technologický substrát a nemění se instituce, může vzrůstat pnutí. Pro technologický substrát ovlivňuje, co lidé dělají nebo můžou dělat, a to nemusí být kompati nastavením politického systému. Můžeme ho různě záplatovat, ale to vcelku vázne a nemusí t se například náš politický systém křehčí s tím, jak se mění způsob cirkulace informací ve Liberální demokracie byla velmi stabilním a historicky úspěšným modelem vládnutí, když se fungovala masová média jako široce sdílený zdroj informací, centrální uzel, odkud proudily milionům nebo i stovkám milionů lidí. Všichni se třeba neshodli na různých věcech, ale měl signálu, žili ve společném světě. A co dnes? Teď je zdrojů strašně moc, jsou decentralizované, jde mnohdy o uživateli vytvořený obsah. pod velkým tlakem a je těžší udržet si vysoké kvalitativní standardy. Pro novináře je slož s clickbaity, když ubývají předplatitelé a inzerenti. Na jednu stranu má tato decentraliza nemůžeme úplně idealizovat centralizované rozesílání informací kvůli velké moci gatekeeper směru jde tady o informační demokratizaci. Když mám novinku, nemusím se objednávat do reda novinářem. Vezmu mobilní telefon, nahraju sám sebe, hodím to na TikTok nebo jinam, a je to Na straně druhé se zvyšuje riziko, že lidé se čím dál méně shodnou na základních rysech si společnost nachází. Výsledné polarizační tlaky může být obtížné pro demokratický systém dl Lze tedy říct, zda digitální věk demokracii prospívá nebo naopak? Možné scénáře vidím poměrně široce. Teď žijeme v přechodovém období, kdy staré normy přest Jasně, je bouřlivé, ale třeba najdeme nové normy a skončíme s lepší demokracií, kde se bud běžných lidí líp propisovat do politických rozhodnutí. To je ten šťastný konec. Taky se al stát, že technologie bude nahrávat autokratickým režimům, zrovna u umělé inteligence takov úplně malé. Nebo prostě způsobí, že se budou špatně dělat jakákoliv kolektivní rozhodnutí, asymetricky snazší být proti něčemu než něco prosadit. Tím pádem začneme stagnovat v pomal se systému, který bude čím dál méně odpovídat na výzvy doby. Foto: Ondřej Trojan Je umělá inteligence neutrální? AI není neutrální. Nejdřív daný systém natrénujete, necháte ho přechroustat miliardy slov Zjistí z nich, jak funguje lidský jazyk nebo dokonce různé jazyky. Hledá, jaké slovo, resp slova, „token,“ nejpravděpodobněji následuje v daném řetězci. To není vůbec triviální úloh Ale my říkáme, že je inteligentní? Záleží na vaší definici inteligence. Pokud ji budeme definovat jako schopnost řešit problé takové docela neutrální vymezení, pak se nebojím říct, že inteligentní je. Nicméně systém, první fáze tréninku, už toho sice dost „ví“, ale nemá žádné zábrany. Aby nám sloužil, musí si má cenit. Musíme mu vtisknout představu, co jsou správné odpovědi, a kterým se má vyhýb seznámit s našimi hodnotami. Teď nicméně mluvím dost metaforicky, my lidé moc nevíme, jak jsou naše snahy naučit AI naš reprezentované uvnitř toho systému. Rozumíme technickým věcem v základech AI systémů, jádr jazykových modelů, třeba ChatGPT, je relativně jednoduchý počítačový program, transformer. z konkrétního dotazu uživatele stane konkrétní odpověď velkého jazykového modelu, který má parametrů, nerozumí nikdo na světě. Někteří říkají, a mně to přijde jako velice užitečná z že nemáme říkat, že jsme současné AI systémy postavili, protože to vyvolává představu, že děláme. Spíše jsme je vypěstovali. Vzali jsme jednoduchý kód, zalili ho obrovským množství síly a cosi překvapivě inteligentního z toho vyrostlo. A teď máme nůžtičky, kterými se sna porostu vystříhat nějaký tvar, který se nám plus minus líbí. Ale kdo drží ty nůžky a jak z tvarovat? To, co střihač vytvoří, se nemusí líbit leckomu jinému. Tím chci říct, že po úvodním tréninku následuje ladění AI systému, kdy mu lidé dávají syst vazbu a snaží se ho navést k tomu, jaké jeho výstupy jsou žádoucí nebo naopak nežádoucí. T předávají nějaké hodnoty, které jsou třeba i politicky kontroverzní. Některé hodnoty jsou lidsky sdílené, ale jaká pravidla má AI systém sledovat při zobrazování historických událo třeba diverzity, na tom je shoda už mnohem menší. Napadá vás nějaký konkrétní příklad? Teď byl veliký skandál s Gemini modelem od Google. Ve zjevně nevhodných kontextech se snaž rasovou a genderovou diverzitu, takže jste ho třeba požádali: „Znázorni typického anglické středověku,“ Gemini vám ukázal čtyři osoby, z nich dvě byly ženy, jeden muž Asiat a jeden vznikla obrovská kontroverze, protože zjevně hodnoty vštípené Gemini jeho staviteli neodpo mnoha jeho uživatelů. Každopádně ten základní problém, z něhož tahle kontroverze vznikla, není vůbec jednoduchý. že třeba píšete seminárku o situaci v Jihoafrické republice v 80. letech a chcete si popov který v tom systému žil a třeba ho dokonce považoval za legitimní, abyste získala autentic To je v reálu skoro jistě nemožné, nicméně druhou nejlepší možností je, že vám takového re nasimuluje chatbot. Řeknete mu: „Mluv se mnou, jako bys byl jihoafrický stoupenec aparthei Ale má být něco takového umožněno? Má vám vyhovět, nebo spíš říct, že to je neetický požad takovou diskusi vést? Velké korporáty, co dnešní modely staví, se snaží našlapovat opatrně. Nicméně mají identit hodnoty, které se do výsledného nastavení jejich AI propisují, a ty nemá každý. Pak samozř uživatelů cítí, že jejich hodnoty systém potlačuje. Navíc AI systémy nejsou transparentní hodnotovou orientaci zakrývají tím, že vám budou lhát, nebo se vás budou snažit znejistět. že je vaše otázka hloupá nebo budou tvrdit, že jí nerozumí. Celá tato oblast je z etického hlediska minové pole. Věnujete se taky vlivu velkých jazykových modelů na demokracii. Co si pod tím můžeme předs Implementují je státní instituce, mají vliv na politiku? Ten začínající vliv se špatně odhaduje. Nevíme, jaké budou za pár let schopnosti technolog věděli, jaká politická rozhodnutí lidé udělají ohledně způsobů jejich ladění a reformy svý Totalitě této otázky se ani nesnažím čelit, protože mi to přijde jako nesplnitelná mise. S na dílčí aspekty problému, o kterých se dá alespoň něco říct. Jaké aspekty to jsou? Konkrétně mě třeba zajímá, jestli by tyhle systémy mohly sloužit voleným reprezentantům li náhrada jejich expertních poradců. Jeden ze základních problémů, kterým demokracie čelí, j rozhodovacích funkcích nemůžou být experti ve všech aspektech toho, o čem rozhodují. Jsou řadě těch, kdo se odborně vyznají v dílčích částech dané problematiky. Ale jak garantovat, zůstávají v mezích své expertízy a nepřekračují je politicky problematickým směrem? Demokr na tom, že hodnoty se mají do kolektivních rozhodnutí propisovat skrze široce inkluzivní d proces a nedojde k jejich únosu úzkou skupinou. Jak ale nejlépe zajistit, že se to opravdu filozofický problém, který dnes řeší spousta autorů. Říkám si, jestli by nám s tím nemohli pomoct. Už jsme samozřejmě narazili na spoustu potíží: třeba s tím, že modely nejsou hodno Podstatnější ale je, jestli dokážeme zařídit, aby byly víc neutrální než lidští poradci. A problémy alespoň vyvažovaly jinou silnou stránkou. Třeba tím, že oproti nim jsou lidští po drazí a nedostatkoví. A teď jde o to, jestli jsme schopni docílit situace, kdy budou naše rozhodnutí lepší, pokud lidské poradce nahradíme AI technologiemi. I tato specifická otázk komplikovaná, ale už se dá alespoň explorativně promýšlet. Narazila jsem na jeden váš text, kde píšete, že velké jazykové modely „halucinují“ a produ tvrzení bez náznaku nejistoty. Halucinace se tváří jako faktická tvrzení, ale nejsou. AI nemá přístup do vnějšího světa. paměti řetězce slov a nemá, jak nezávisle ověřit, jestli informace sedí. Tento problém se různě limitovat. Jedna z používaných metod ověření je kontrola odpovědi přes nejprominentn zdroje. Taky můžeme testovat konzistenci odpovědí napříč různými nezávislými nebo relativn modely: když je to halucinace, spíš se nebude opakovat, když ne, tak by se opakovat měly. se hodně zabývám v práci o demokracii a expertíze. Existují docela dobré vyhlídky na zlepš halucinují méně než před rokem. Pokud se budou velké jazykové modely implementovat do politické oblasti nebo veřejné debat očekávat příval dalších falešných tvrzení vedle dezinformací? AI dezinformace na rozdíl od halucinací nejsou chyby, ale záměrně vytvořené zavádějící či obrazy nebo videa, někdy nerozlišitelné od autentických. Jejich produkce je čím dál snazší však tak černě. Na internetu jsme trošku nedbalí, jako když vandalové vtrhli do Říma a nev tak různě řádí... Tohle řádění ale typicky nejde s kůží na trh. Když někdo věří, že je Zem budiž mu odpuštěno, nemá to pro jeho život zpravidla žádné praktické implikace. Ale v příp dezinformací, které ohrožují naše praktické fungování, mám důvěru v lidi a myslím, že jsme a schopní hledat různé strategie. Když vám zavolá neznámé číslo a ozve se hlas někoho vám nemůžete dnes už s jistotou vědět, že to je skutečně ten člověk. Hlas se dá s pomocí AI sn Jakmile ale o takových podvodech uslyšíte od známých, nebo se dokonce sami necháte nachyta být opatrnější. Věřím, že nakonec potřebné strategie najdeme. Jde jen o to, jakou cestou k a do jaké míry to bude centralizované, jestli budou „ověřené informace“ potřebovat štempl autority anebo jestli naopak budou rozpoznávány decentralizovaně tím, že si lidé na indivi skupinové bázi sami vytvoří důvěryhodné informační kanály. Žádné řešení se ale nejeví samo pokud někdo hackne nebo ovládne původně důvěryhodný informační kanál, může to s námi zacvi Takže to povede ke zvýšení mediální gramotnosti? Bude to motivovat věnovat této problemati pozornost třeba ve vzdělávání? Mně přijde, že tyhle plány vždycky mají příliš dlouhou dobu realizace. Zní to hrozně dobře je v praxi a ještě v tempu, které by lidem pomohlo dřív, než je život naučí sám, je velice s tím poradí náš standardní vzdělávací systém, děti to jednak budou umět samy a jednak tec ujede tak daleko, že naše pracně vymyšlené osnovy snadno zastarají. Možnosti velkých jazykových modelů jsou ohromující. Jak moc je podle vás důležité umět s n používat je v praxi? Extrémně důležitá mi přijde osobní zkušenost. Jen se dívat na někoho, kdo pracuje s touto nezprostředkuje autentický zážitek, co ta věc skutečně umí. Je důležité mít hodiny praxe a nejpokročilejším systémem. Spousta lidí má pochopitelnou tendenci mávnout rukou, že je to hypu, kterých už zažili spoustu. Úplně rozumím skepticismu a v mnoha případech je oprávněn tady si myslím, že se opravdu děje něco velmi důležitého. Jasně, jako vždycky se vyrojila teplé vody, kteří se snaží přijít k rychlým penězům. Ale člověk, který si k systému genera sedne a začne ho zkoušet s otevřenou myslí, velice rychle zjistí, že stojí za to tuhle tec sledovat. Když působíte taky na VŠE, jak vnímáte, že Podnikohospodářská fakulta nahrazuje pro nastou písemnou bakalářskou práci projektem, aby nemohli podvádět při psaní práce pomocí ChatGPT? Předesílám, že nemám detailní přehled, jak konkrétně mají ty bakalářské projekty vypadat. myslím, že ChatGPT byl spíš jen poslední kapka v něčem, co chystali delší dobu. Nicméně je sympatické experimentování tváří v tvář nejistotě a neznámému. Zvykli jsme si, že na tyto univerzální mustr. Očekává se, že pokud chcete absolvovat vyšší vzdělání, musíte napsat ba Ten model je víceméně právě jeden, ale teď je otázka, jestli je ten nejlepší. Nemohli jsme už předtím, než se objevila umělá inteligence. Nikdo nezaujatě netestoval, co by se stalo, rozdělil studenty do dvou skupin, kde by jedna půlka psala bakalářku a druhá by dělala něc by sledoval, jaké jsou dlouhodobé úspěchy absolventů na trhu práce a tak dále, nebo jak tř spokojenost se studiem. Alespoň o takových studiích nevím. Potenciálně revoluční technolog spoustu parametrů situace, zejména ve vzdělávacím procesu. A nechtěl bych, abychom dál vši svém starém vláčku, který jede předem daným směrem, a všichni jsme si jenom drželi palce, Jsem rád, že někdo zkouší vystoupit. Kolegové z Podnikohospodářské přestoupili na jiný dop a možná dojedou do cíle líp než my. Možná ne. Ale jejich směr vypadá nadějně. Ale nebude se to hodit úplně všude? Snažil jsem se neohrabaně vyjádřit, že bychom měli být otevřenější k experimentování. Zkus věci, míň se toho bát, zkusit být odvážnější a vidět, co bude fungovat a co ne. Alena Ivanova