Anetta Jedličková: AI vyžaduje neustálý dohled a odpovědnou kontrolu


„Umělá inteligence je nástroj, který má nejen potenciál přinášet inovace, ale dokáže také podporovat principy otevřené demokracie, jako jsou transparentnost, participace veřejnosti a dialog o hodnotách,“ říká doktorka Anetta Jedličková. Spolu s výzkumným týmem z FHS je součástí interdisciplinárního projektu CZDEMOS4AI: Prospěšný multiagentní AI avatar v malé demokratické společnosti, jenž loni získal financování v rámci grantového programu SIGMA TA ČR. Řešitelský tým zvolil čtyři klíčové oblasti fungování transformující se demokratické společnosti – bezpečnostně-mediální, eticko-právní, psychologicko-zdravotní a historicko-edukační – jež jsou důležité pro rozvoj všech společenských, humanitních i umělecko-vědních oborů. S doktorkou Jedličkovou jsme probrali vize projektu, jeho budoucí výstupy a zmíněné vyhlídky spojené s efektivnějším využitím AI v demokratické společnosti.


Anetta Jedličková, foto: Ondřej Trojan
Anetta Jedličková, foto: Ondřej Trojan


Je výzkum „šitý na míru“ pro grantovou soutěž, nebo byl již dlouhodobě připravovaný?


Projekt je výsledkem kombinace několika faktorů. Již hodně dlouhou dobu jsem přemýšlela nad konceptem vytvoření strategie pro posuzování etických aspektů systémů umělé inteligence. Svůj záměr jsem konzultovala s kolegy z rozličných institucí a odborných oblastí a snažila jsem se zkušenosti expertů propojit, protože mi bylo jasné, že nemohu postavit tak rozsáhlý projekt sama. Když jsem se dozvěděla o vyhlášené soutěži v programu SIGMA Technologické agentury ČR, všechno do sebe perfektně zaklaplo. Tato příležitost představovala ideální cestu jak poposunout svou původní myšlenku na další úroveň a rozvinout ji směrem k praktickému využití.


A jak pak projekt vznikal?


Projekt se vyvíjel postupně. Nejdříve jsme se zúčastnili předvýběrového řízení v rámci Univerzity Karlovy, v němž tři fakulty podaly vlastní návrh projektu nezávisle na ostatních. V této fázi jsme o sobě navzájem vůbec nevěděli. Za každou instituci, tedy i za naši univerzitu, mohl být v rámci každého výzkumného tématu soutěže programu SIGMA podán pouze jeden návrh. Odbor pro vědu a výzkum rektorátu UK však vyhodnotil, že všechny návrhy jsou zajímavé, ale potřebují ještě doladit a hlavně propojit. Tím začala spolupráce mezi fakultami. Posléze jsme do projektu zapojili další instituce, které mohly přispět svými zkušenostmi v oblasti AI. Idea multiagentního AI avatara tedy vznikla v pozdějších fázích příprav, během nichž byl projekt postupně promýšlen a dotvářen. Myslím si, že kdyby kterákoli z fakult rozvíjela jen svůj vlastní původní návrh, naše šance na úspěch v soutěži by byly výrazně menší. Pomohlo nám, že za Univerzitu Karlovu mohl do soutěže programu SIGMA postoupit pouze jeden návrh, a právě díky propojení a sjednocení různorodých nápadů jsme dokázali vytvořit komplexní a silný projekt s reálnou šancí na úspěch.


Bylo výběrové řízení náročné?


Co se týče přípravné fáze, v našem případě byla náročnější zejména z hlediska koordinace, protože se jedná o velký projekt složený z odborníků různých profesí. Na tomto místě bych chtěla vyzdvihnout přínos kolegů z Fakulty sociálních věd UK a ocenit jejich koordinační činnost. Vyžadovalo to opravdu značné úsilí zkoordinovat specifické myšlenky, představy i plány různých členů osmičlenného konsorcia, kteří tvoří projektový tým, což se povedlo právě díky FSV. Příprava návrhu tedy byla nejnáročnější z pohledu celkové koordinace, ale každý z nás už dlouho předtím měl jasnou vizi, jakým způsobem chce do projektu přispět, a díky tomu jsme společně našli cestu, jak projekt efektivně postavit.


Které instituce jsou součástí týmu?


Řešitelský tým projektu tvoří osmičlenné konsorcium, které zahrnuje univerzity, výzkumné instituce i technologické společnosti. Každý člen má přesně určené odborné začlenění, své kompetence a odpovědnost. Hlavním řešitelským pracovištěm je Univerzita Karlova, a to prostřednictvím pěti fakult. Fakulta sociálních věd, která celý projekt koordinuje, reprezentuje jeho sociálně-vědní sekci, a je tak odpovědná za historicko-edukační a bezpečnostně-mediální AI asistenty avatara. Fakulta humanitních studií, tedy náš tým, reprezentuje humanitně-vědní sekci a zabývá se etickými aspekty při vývoji všech čtyř AI asistentů avatara. Za vývoj poradenského AI asistenta v oblasti duševního zdraví, tedy za psychologickou a adiktologickou perspektivu projektu, je odpovědná 1. lékařská fakulta. Zapojila se také Matematicko-fyzikální fakulta, konkrétně Ústav formální a aplikované lingvistiky, který garantuje výzkum, vývoj a správu datových a hardwarových zdrojů, a Filozofická fakulta, která spolupracuje na vývoji historicko-edukačního AI asistenta. Mezi další členy konsorcia patří Právnická fakulta Masarykovy univerzity a Ústav státu a práva AV ČR, tedy instituce, které tvoří právní sekci týmu a jsou odpovědné za vývoj eticko-právního AI asistenta. Součástí týmu jsou také partneři z komerční oblasti. Jedná se o firmy zaměřující se na vývoj produktů a poskytování služeb v oblasti umělé inteligence. Velké podniky jsou v týmu zastoupeny společností IPSOS, která garantuje nastavení metodologie výzkumných dat, analýzu dat a interpretaci kvantitativních výzkumů, jež povedou k designu multiagentního AI avatara. Malé a střední podniky zastupují společnosti MAMA AI Coolma a PHYSTER TECHNOLOGY. Tito partneři jsou odpovědni za bezprostřední návrhy a vývoj AI avatara, přípravu datových korpusů, tréninkových modelů, přenos dat, vývoj neuronových sítí pro syntézu hlasu, synchronizaci řečové a vizuální modality apod.


Všichni AI asistenti multiagentního avatara tedy vzniknou ve spolupráci technického sektoru a instituce zajišťující danou oblast?


Přesně tak. Například mediální sekci tvoří Česká tisková kancelář, která poskytne datové zdroje a je odpovědná za popularizaci a medializaci projektu. Další výzkumnou organizací je spolek Prg.ai, který zajišťuje komunikaci s veřejnou správou a je klíčový pro vytvoření koncepce propojení na aplikační sféru a pro přenos výstupů projektu do praxe. Každý z nás má svou roli, všichni víme, co je potřeba udělat, a už jsme se do toho také aktivně pustili.


Jak byste shrnula roli týmu FHS v projektu?


Etická část výzkumného projektu zastřešovaná týmem FHS se vyznačuje výrazným interdisciplinárním přesahem. Vzájemná provázanost a důraz na etické aspekty při vývoji multiagentního AI systému ve všech fázích projektu představují unikátní koncept, který umožní využít poznatky z technologického vývoje a výzkumu dopadů umělé inteligence pro vytvoření obecných opatření, postupů, metodik a doporučení. Náš tým bude dohlížet, aby všechny čtyři AI moduly multiagentního AI avatara byly navrženy, vyvíjeny a posléze i implementovány v souladu s etickými standardy a požadavky. Tento přístup je nezbytný pro vývoj důvěryhodné umělé inteligence a její přijetí ve společnosti. Důraz na dodržování právních a etických standardů je dnes patrný téměř ve všech institucích a je také předmětem legislativní regulace. Příkladem je nařízení AI Act, schválené loni v rámci Evropské unie, které se zaměřuje na posuzování a řízení rizik a odpovědné využití AI technologií. V průběhu celého vývoje multiagentního systému propojených pokročilých odborných AI asistentů bude náš etický tým kontinuálně sledovat, pravidelně analyzovat a vyhodnocovat všechny parametry, které mají potenciál ovlivnit posuzované etické aspekty.

Na spolupráci se těším, protože se oblasti etiky AI věnuji posledních několik let a nyní mám možnost podílet se na procesu přímo od vývojové fáze, nikoli pouze jako posuzovatel hotového systému. Ráda se proto zapojím do projektu jako interní poradkyně etiky AI a také mě těší, že to bude „náš“ avatar, spoluvytvářený týmem z FHS UK.


Máte již představu, jak bude AI avatar fungovat?


AI avatar a jeho konverzační asistenti se budou určitě lišit od současných chatbotů, jež jsou nástrojem primárně textové interakce, generování textů a poskytování inteligentních odpovědí. Náš avatar s multiagentním systémem bude zahrnovat čtyři tematické AI asistenty podle zmíněných společenských oblastí a bude založen spíše na interaktivním konverzačním podkladu. Každý AI asistent bude navržen tak, aby reflektoval specifické potřeby dané oblasti a poskytoval uživatelům relevantní podporu. Půjde o komplexní systém, který integruje znalosti z různých oborů a umožní dialog o hodnotách a rozhodnutích, jež formují naši společnost, a bude tak přispívat ke zkvalitnění demokratických procesů ve společnosti a k posílení její odolnosti.


Dokázala byste přiblížit každého ze čtyř AI asistentů a pro koho budou určeni?


Obecně plánujeme širokospektré využití, ale pojďme se na ně podívat jednotlivě. Bezpečnostně-mediální AI asistent se zaměří na podporu v boji proti dezinformacím a na posílení bezpečnostní politiky. Bude vyvinut na základě speciálních výzkumů dopadů umělé inteligence na zpravodajsko-bezpečnostní segment. Tento asistent bude doplňovat stávající strategickou komunikaci státu a jeho institucí v rozličných krizích, a to i vůči hybridním hrozbám. S cílem posílit bezpečnostní politiku bude postaven na ověřených informacích ČTK a zaměří se jak na vnitrostátní a mezinárodní konflikty, tak i na migraci a její dopady, na ochranu kritické infrastruktury a na energetickou a ekonomickou bezpečnost. Je to obšírná oblast a bezpečnostně-mediální asistent bude určen pro širokou škálu uživatelů.


Myslíte si, že stát a jeho instituce jako jedni z cílových uživatelů, přistoupí k využití umělé inteligence ve svých bezpečnostních službách?


Osobně tomu pevně věřím a myslím si, že už dnes je AI v určitých oblastech využívána, například v souvislosti s bezpečnostními kamerovými systémy ve specifických případech. Některé bezpečnostní hrozby se už nyní analyzují a vyhodnocují pomocí umělé inteligence. Umím si také představit, že za pět let, až bude náš projekt končit, budou technologie AI i v tomto odvětví využívány ještě více. Nicméně cesta ke konstruktivnímu a spolehlivému využití AI v bezpečnostní politice a zabránění případným rizikům, která z ní plynou, je ještě dlouhá.


Je podle vás AI bezpečná?


Je bezpečná v rukou odpovědných uživatelů. Samozřejmě musíme sledovat nejen její využití, ale i navržení a naprogramování. Jsou zde rizika, kterým se nevyhneme, proto je třeba ji neustále kontrolovat. Nezapírejme, že hrozby existují – je však na nás, abychom je uměli řešit. Na vysoce rizikové systémy AI musíme dohlížet, abychom zajistili, že splňují požadavky stanovené nařízením AI Act.


Anetta Jedličková při rozhovoru s Alenou Ivanovou, foto: Ondřej Trojan
Anetta Jedličková při rozhovoru s Alenou Ivanovou, foto: Ondřej Trojan


Jaký bude avatar v rámci eticko-právní oblasti?


Právní AI asistent zpřístupní právní předpisy široké veřejnosti. Bude fungovat jako analytický doplněk při výkladu a aplikaci práva, což by mělo přispět k srozumitelnosti právních předpisů. Také by měl plnit funkci specifického analytického AI nástroje pro práci s českými právními texty a dokumenty.


Právníci si často „hrají“ se čtením a interpretací zákonů a jiných norem. Myslíte si, že se dá AI naprogramovat tak, aby dokázala podchytit nuance?


Systémy umělé inteligence pracují s daty poskytovanými člověkem. Pokud jim poskytneme vhodná a robustní tréninková data, měly by být vytrénovány správně. Je však pravda, že autonomní rozhodování AI pro nás zůstává v některých případech záhadou, možná právě kvůli zachycení jemných nuancí, o nichž běžně neuvažujeme. Kolikrát nevíme, proč AI zvolí konkrétní řešení, což je jedním z důvodů, proč je nutná pečlivá kontrola. Když posuzujeme jednotlivé systémy AI, musíme z etického hlediska důsledně trvat na transparentnosti, jež nám pomáhá vysvětlit rozhodování, určit odpovědnost a zajistit srozumitelnost rozhodnutí, tedy jak určitý systém AI rozhodl, proč právě určitým způsobem a také kdo nese odpovědnost za dané rozhodnutí. V této souvislosti je klíčová auditovatelnost systémů AI.


Představíte dalšího AI asistenta?


Psychologicko-zdravotní AI asistent bude fungovat jako poradenský nástroj AI pro oblast duševního zdraví. Jeho vytvoření bude předcházet výzkum dopadu umělé inteligence na lidskou psychiku a zdraví, a to včetně způsobu, jak podporovat duševní pohodu a zkvalitnit adiktologickou péči. V praxi to znamená také zlepšení přístupu k léčbě závislostí nebo jiných psychologických problémů. Odborníci tak získají nástroj pro efektivnější identifikaci a řešení specifických potřeb klientů, což následně pomůže k personalizovanější a přesněji cílené terapii. Typickým uživatelem tak budou poskytovatelé adiktologických, poradenských nebo terapeutických služeb, ale také dospělí a dospívající ve věku od jedenácti let. Bude využíván pro širokou poradenskou činnost, diagnostiku i zvyšování profesních dovedností.


A co ten čtvrtý?


Čtvrtý AI asistent multiagentního avatara se v historicko-edukační oblasti zaměří na zvyšování informovanosti veřejnosti, podporu vzdělávání a interpretaci minulosti, takzvanou public history. Cílem je naučit se jakým způsobem klást otázky týkající se minulosti a zohledňovat společenský kontext při výkladu historických událostí. AI asistent bude sloužit široké veřejnosti, státním institucím, korporacím i odborníkům a poskytovat odpovědi i vhled do teorie a praxe historické gramotnosti.


Může takový asistent ohrozit humanitní vědy?


Neohrozí, ba naopak. Naším cílem je, aby historicko-edukační AI asistent napomáhal minulost správně interpretovat nebo nás podpořil, abychom se na správnou interpretaci dokázali objektivně zaměřit. Člověk je ovlivněn výchovou, kulturou, emocemi či osobními zážitky, což může bránit objektivnímu pohledu na minulé události, ať už v osobním nebo globálním kontextu. Záměrem není humanitní vědy ohrozit, ale naopak jim přispět. Budeme klást důraz na objektivitu, transparentnost, pečlivý a nezaujatý výběr dat a důsledný a transparentní vývoj systému.


Pokud máme vyhlídky, že se umělá inteligence implementuje do všech těchto oblastí během následujících let, myslíte si, že se stane skutečně nepostradatelnou součástí lidského života? Pomůže člověku s domácím úkolem do školy, při návštěvě lékaře, v řešení soudního sporu nebo i napoví, koho volit v příštích volbách?


Umělá inteligence má bezpochyby obrovský potenciál zasahovat do všech oblastí lidského života. Právě proto vyžaduje neustálý dohled a odpovědnou kontrolu. Je to nástroj, který může přinášet nejen inovace, ale také podporovat principy otevřené demokracie, jako jsou transparentnost, participace veřejnosti a dialog o hodnotách. Ačkoli jsou obavy spojené s umělou inteligencí oprávněné, jsem přesvědčená, že lze nalézt cesty jejího využití ve prospěch demokratické společnosti. Věřím, že pečlivým designem, odpovědným vývojem a uvážlivou implementací dokáže napomoci ke zlepšení demokratických procesů. Může například zjednodušit přístup k informacím, podpořit transparentnost vládních rozhodnutí, umožnit širší zapojení občanů do veřejného života, ale její role by měla být chápána jako podpůrný nástroj při rozhodování, nikoli jako nepostradatelná součást lidského života. Stále je nezbytné, aby klíčová rozhodnutí zůstala na člověku – umělá inteligence nám nemá říkat, koho máme volit, jak se léčit ani jak vyřešit soudní spor.


Co přesně si pod tou kontrolou můžeme představit?


V nástrojích umělé inteligence musí být neustále přítomen důraz na lidské hodnoty. Nesmíme na ně zapomínat jak v souvislosti s právními normami, tak s dodržováním etických standardů. Mezi hodnoty patří lidská důstojnost, respektování autonomie, svoboda projevu a informací, právo na vzdělání, spravedlnost, nediskriminace a rovnost, ochrana zranitelných skupin, ochrana spotřebitele či právo na duševní vlastnictví. K ochraně hodnot je zásadní pečlivé posuzování závažnosti potenciální újmy, kterou by systémy AI mohly způsobit. Navzdory častým diskusím o obavách a ujišťováních ohledně bezpečnosti AI je zřejmé, že bez aktivního lidského dohledu se využívání technologií AI neobejde. Je proto nezbytné soustavně kontrolovat klíčové zásady, jako jsou transparentnost, zachování a ochrana soukromí, předcházení neetické předpojatosti a odpovědnost za rozhodování a využívání systémů AI. Všechny uvedené aspekty tvoří jádro etiky AI společně s etickými principy, které známe například bioetiky. Ve všech fázích navrhování systémů, už od počátečního designu až po zavedení do praxe, musí vývojáři umět odůvodnit své volby, musí například prokazovat, proč použili právě určitá data a jiná vyloučili apod. Etická kontrola tudíž probíhá již při prvotních návrzích a pokračuje v každé fázi vývoje systému až po jeho implementaci. Ve výsledku se ovšem jedná o autonomní rozhodování systémů, které se neustále učí. Proto je nezbytné provádět kontinuální kontrolu, monitorování a auditování i po jejich uvedení do provozu.


V anotaci projektu váš tým uvádí, že systém odborných asistentů bude navržen na základě odpovědného human-centric přístupu. Jsou současné běžně používané AI nástroje takové?


Abych byla upřímná, myslím si, že ne všechny jsou navrženy s ohledem na principy human-centric designu a odpovědnosti. Mnoho z nich je optimalizováno pro efektivitu nebo výkon, a to často na úkor širšího společenského a etického kontextu. My se ale budeme snažit, aby naše systémy zodpovědné byly. Human-centric AI klade důraz na to, aby technologie sloužily potřebám a hodnotám lidí, byly transparentní, spravedlivé a respektovaly lidská práva. Je před námi ještě dlouhá cesta, aby všechny systémy prokazovaly tyto zásady, ale naším projektem chceme ukázat, že navrhovat a vyvíjet systémy AI, které podporují demokratické hodnoty a respektují etické principy, je možné.


Existují jiné podobné výzkumy, tuzemské nebo zahraniční?


Domnívám se, že v zahraničí již mohou být podobní avataři vytvořeni, o žádných konkrétních ale nemám informace. Jsme však specifičtí v tom, že vytváříme demokraticky nastavený systém s jazykovým modelem zaměřeným na češtinu, a tedy českou společnost. K trénování využijeme specializovaná česká data, což je u systémů AI v rozsahu námi plánovaných asistentů multiagentního AI avatara a v oblastech našeho zájmu zatím ojedinělé. Víme, že současné velké jazykové modely jsou primárně trénovány na anglosaských datech, čímž trpí řadou předpojatostí, včetně kulturních, etnických nebo genderových. Navíc často není jasné, na základě jakých kritérií byla data vybírána a jakým způsobem s nimi bylo nakládáno.


Anetta Jedličková, foto: Ondřej Trojan
Anetta Jedličková, foto: Ondřej Trojan


Myslíte si, že se nyní potýkáme s určitým trendem výzkumu a vývoje umělé inteligence, který je dán například výší investic?


Ve veřejném prostoru může občas vyznívat, že je umělá inteligence módním trendem. Rozhodně se to však netýká našeho týmu. Osobně tento obor sleduji dlouhodobě a už delší dobu se aktivně zabývám problematikou a posuzováním etických aspektů systémů umělé inteligence. Byla jsem například součástí výzkumného projektu, který se zabýval vytvořením algoritmického modelu pro spravedlivou alokaci vzácných zdrojů v době pandemie. Motivací byla tehdy krize nedostatku zdravotnického materiálu, roušek, dalších ochranných pomůcek a později i lůžek. Vyvinutý model lze ovšem využít i pro alokaci jiných vzácných zdrojů, například v energetice. V projektu jsem dohlížela na to, aby autonomní alokace byla spravedlivá a transparentní. Mé aktivity v oblasti AI tedy rozhodně nejsou otázkou aktuálního trendu, ale vychází z dlouhodobého zájmu a přesvědčení, že řešení spojená s umělou inteligencí mají značný potenciál, avšak zároveň mohou představovat významná rizika, která je potřeba prozkoumat a důsledně řídit. I proto jsem absolvovala mezinárodní certifikovaný kurz posuzování etických aspektů AI v rámci IEEE (Institute of Electrical and Electronics Engineers), abych získala nejnovější poznatky a přístupy k odpovědnému řízení těchto technologií. Vnímám AI jako klíčovou oblast, která bude mít zásadní dopad na budoucí vývoj ve všech odvětvích, včetně společenských a humanitních věd, medicíny, technologií a etiku nevyjímaje.


Původně jste studovala medicínu a dokonce jste několik let působila jako plastická chirurgyně. Pak jste dělala nezávislou výzkumnou a klinickou konzultantku, spolupracovala s farmaceutickým i biotechnologickým průmyslem, ale také máte doktorát z Aplikované etiky na FHS. Jak jste se k němu dostala?


Ač se může na první pohled zdát, že zmíněné obory spolu nesouvisí, mají významného společného jmenovatele. Máte pravdu, vzděláním jsem lékařkou a mám za sebou praxi v plastické chirurgii. Lékařství obecně vede k hlubokému rozvažování o etických otázkách na každodenní bázi. Zvláště v chirurgii jsou rozhodnutí často rychlá a zásadní, o to více musíte mít v sobě etiku pevně ukotvenou. Proto jsem se jí zabývala už při nástupu do oboru chirurgie a vnímala jsem, jak ovlivňuje mou každodenní klinickou praxi. Především jsem chtěla vždy pomáhat, a to byl také důvod, proč jsem šla studovat medicínu i přesto, že mě bavily také technické obory. Chirurgie mi umožňovala pomáhat tady a teď, v daný okamžik; když už jsem ji však praktikovala delší čas, chtěla jsem pomáhat ještě více. Už mě neuspokojovalo pomáhat pouze jednotlivcům teď a tady. Chtěla jsem rozšířit dosah své pomoci, což mě přivedlo k myšlence pomáhat pokrokem, a odtud už to byl jen krůček ke klinickému výzkumu. Jak jsem však posléze zjistila, výzkum neprobíhá vždy tak poctivě, jak je veřejností očekáváno, že by probíhat měl. Proto jsem se rozhodla přispět k jeho důvěryhodnosti a spolehlivosti. Neustále jsem se vracela ke své základní ideji, snaze pomáhat. Pomoc přece nezaručí data, která nejsou relevantní, validní ani spolehlivá, musíme je nějakým způsobem kontrolovat. Nasměrovala jsem tak další své úsilí do konzultantské a kontrolní činnosti v klinickém výzkumu. Dnes mám za sebou téměř tři sta klinických auditů, během nichž jsem kontrolovala různé lékařské a výzkumné projekty po celém světě. Touto cestou jsem se dostala blíže k umělé inteligenci a technologiím, které jsou v medicíně stále důležitější, od robotické chirurgie až po rozvoj telemedicíny v posledních letech. A k etice, která všechny mé předcházející etapy provází, mne paradoxně přivedly právě případy porušování etických standardů. Setkala jsem se s mnoha podvody v klinickém výzkumu a zajímaly mě příčiny, proč k podvodům v této oblasti dochází. Jsem samozřejmě ráda, když se díky mým kontrolním aktivitám zastaví statistické zpracovávání nevalidních, podvodných nebo zmanipulovaných dat pro nějaký konkrétní výzkum, ale to je jen důsledek mé činnosti. Já jsem chtěla zjistit, co vede výzkumníky k tomu, aby se zpronevěřili svému poslání pomáhat medicíně, což mě přivedlo ke studiu aplikované etiky, která pokrývá nejen oblast medicíny, ale i bioetiky nebo technologií, které mě vždy přitahovaly.


Na své dráze postupujete čím dál víc k obecnému, máte ambice měnit věci systémově?


Nemyslím si, že k tomu mám všechny potřebné kompetence. Spíše v současnosti vnímám, kde jsou problémy, a hledám cesty k jejich zlepšení. Dosud jsem pracovala převážně na individuální úrovni, když jsem radila farmaceutickým nebo biotechnologickým společnostem ohledně správných postupů, případně jak se vyvarovat nesprávných či neetických činností. Avšak díky projektu CZDEMOS4AI bych ráda přispěla k vytvoření systémového rámce pro posuzování etických aspektů systémů umělé inteligence v širší obecné rovině. Plánujeme proto připravit metodickou příručku v této oblasti, která by další vývoj technologií AI nasměrovala k jejich efektivnímu hodnocení, a pomohla tak vytvářet důvěryhodné systémy umělé inteligence.


Alena Ivanova



Poslední změna: 3. duben 2025 10:32 
Váš názor
Kontakty

Univerzita Karlova

Fakulta humanitních studií

Pátkova 2137/5

182 00 Praha 8 - Libeň


Identifikátor datové schránky: piyj9b4

IČ: 00216208

DIČ: CZ00216208

Podatelna

Všechny kontakty


Jak k nám