Technologie: Osvobození nebo zotročení?

Technologie: Osvobození nebo zotročení?

📊 Souhrn

Seunggyu Baek ve své přednášce zkoumá vliv moderních technologií, zejména umělé inteligence (AI), na naši svobodu a autonomii. Argumentuje tím, že ačkoliv nám technologie přinášejí nepopiratelné výhody a usnadňují život, neseme si zodpovědnost za jejich používání. AI modely, trénované na datech generovaných samotnými modely, mohou vést ke konvergenci a zkreslení dat, což ovlivňuje naše vnímání reality a definuje, co je považováno za běžné. Autor poukazuje na to, že se tak nevědomky stáváme součástí moderního panoptikonu, kde nás nekontroluje moc, ale pravděpodobnost a algoritmy.

Autor zdůrazňuje, že technologie samotná není viníkem. Klíčem k zachování svobody je náš postoj a způsob, jakým technologie využíváme. Stejně jako u internetu, i u AI se musíme naučit rozeznávat potenciální hrozby a chránit se před nimi. Doporučuje využívat AI kriticky, pro hledání referencí a oponování vlastním názorům, nikoliv pro konvergenci, ale pro divergenci myšlení. Autor uzavírá svou přednášku otázkou, zda se necháváme technologií zotročit, nebo ji využíváme k vlastnímu osvobození.

📝 Přepis

Úvod do světa moderních technologií

Žijeme ve světě 21. století, v éře moderních technologií, která definuje pohodlí. Život nikdy nebyl jednodušší. Upřímně, bez toho bych nemohl studovat. Při provádění studie na vzácné cestě, na vzácné téma, jsem nemohl najít předběžnou výzkumnou práci, která by byla v korejštině. Takže jsem se odvolával na článek napsaný v angličtině. Před internetem bych čekal týdny. Ale teď jen kliknu a napíšu a je to tady. Takže zkrácená fyzická vzdálenost.

A internet také změnil vzdělávání díky online kurzům. Nemusíte žít ve velkém městě, abyste se připravili na CSAT (College Scholastic Ability Test). Takže si myslím, že můžeme říct, že technologie nás osvobodila. No, zamyslete se znovu. Jsme opravdu svobodní?

Technická svoboda vs. Skutečná svoboda

Co tím myslíte? Právě jste připustil, že nám to umožnilo svobodněji se rozhodovat. No, technicky ano. Ale dříve jsem podceňoval nebezpečí AI, ale změnil jsem názor. Proč bych to měl měnit? Jen proto, že učitelé nebo profesoři to odmítají používat? Nebo protože je to překážka, která blokuje vaši subjektivní aktivitu? Ne, je to mnohem složitější. Protože to může být nová forma moci, která může omezit to, co si můžeme myslet. Je to problém osvobození, nebo zotročení. Tak o AI přemýšlím.

Foucault a moderní moc

Začněme s filosofickou teorií. Francouzský filosof Michel Foucault tvrdil, že moderní moc je uplatňována tím, že lidi nutí žít. V předmoderní době panovník vykonával moc tím, že lidi nechal umírat a nechal je žít. Moc spočívala v trestání, popravování a vyhošťování. Na druhou stranu, moderní moc, jinými slovy biomoc, se zaměřuje na to, aby lidi nechala žít a nechala je umírat jako sociální zabezpečení.

Pro výkon moci je však důležité lidi normalizovat. A nejpraktičtější způsob bude samoregulační systém. Lidé se regulují sami, chovají se a myslí v mezích zdravého rozumu, dokud nezůstane nic neobvyklého.

Orwell vs. Foucault: Dva pohledy na moc

Podívejme se na příklad. Anglický autor George Orwell se obával společnosti, kde je všude dohled nad lidmi. Všechna kulturní díla jsou zakázána a myšlení, právo myslet, je zakázáno. To je Severní Korea. To je předmoderní. Jinak je život v Jižní Koreji skvělý. Méně dohledu, přetékající kulturní díla, která potěší lidi, a lidé, kteří se řídí veřejným míněním.

Moderní moc a veřejné mínění

Pojďme dál. Lidé obvykle donekonečna sledují veřejné mínění. Zvažte, zda jsou sociálně dobře naladěni na malé věci, když si toho ve skutečnosti nikdo nevšímá, a tím omezují své chování. To je moderní moc.

Panoptikon jako model moderní moci

Foucault nazval strukturu moderní moci Panoptikon podle formy vězení. V centru nahoře může vězeňský dozorce sledovat všechny lidi, ale lidé nemohou dozorce rozpoznat, protože uvnitř je tma. Takže nemohou vědět, zda je tam dozorce. Lidé mají tendenci regulovat své chování. Problém je však v tom, že biomoc je tady dozorce a biomoc je tvořena mocí. Tím omezuje to, co si můžeme myslet a co ne.

AI a zkreslení dat

Pokud vás AI zajímá, možná jste slyšeli o kolapsu AI modelů. Školení modelů s vlastnoručně generovanými daty povede ke konvergenci AI modelů. To znamená, že data generovaná AI jsou zkreslená. Ne něco jako rasismus nebo násilí, jen zkreslení. Čistě zkreslení vedené algoritmem. Protože to odpovídá. Odpovídá to, co je nejpravděpodobnější, že bude zodpovězeno na základě pravděpodobnosti.

Posun vnímání a definice obyčejnosti

Jsme obvykle závislí na AI, a po nějaké expozici je zdravý rozum redefinován pravděpodobností. Doposud byl panoptikon vykonáván těmi, kdo mají moc. Nicméně, AI pouze sleduje pravděpodobnost. Takže se naše poznání mírně a postupně posune směrem k tomu, co je definováno jako obyčejné. A tyto obyčejné věci budou dozorcem v panoptikonu.

Postoj k technologii a osvobození

Z širší perspektivy bych neřekl, že bychom nikdy neměli používat AI modely. A za 10 let si nemyslím, že bychom se pravděpodobně starali o takové věci. Stejně jako internet, ve chvíli, kdy se internet objevil, byly počítačové viry velkým problémem. Nyní si jen necháte naočkovat počítač a to je vše. Takže se nemusíte o tyto věci starat. Měli byste si stáhnout antivirový software a nechodit na podezřelé stránky. Tak to funguje.

Závěr: Jsme zotročeni technologií?

Osvobozuje nás technologie, nebo zotročuje? Odpověď nezávisí na samotné technologii, ale na našem postoji k ní. Používám AI pouze k hledání referencí a ke kritice svého názoru. Vyhýbám se zkreslení AI, ne konvergenci, ale divergenci. Technologie je stejná a rozdíl je v tom, jak se ji rozhodneme používat. Dovolujete si být zotročeni technologií? Děkuji.

🔍 Kritické zhodnocení

Přednáška Seunggyu Baeka nabízí zajímavý pohled na potenciální vliv AI na naši svobodu a autonomii, inspirovaný myšlenkami Michela Foucaulta a George Orwella. Autor správně poukazuje na riziko konvergence AI modelů a na to, jak algoritmy mohou ovlivňovat naše vnímání reality.

Argument, že AI může vést k novému typu “panoptikonu”, kde nás nekontroluje moc, ale pravděpodobnost, je podnětný k zamyšlení. Studie ukazují, že algoritmické zkreslení (algorithmic bias) je reálný problém, který může vést k diskriminaci a posilování existujících stereotypů ([O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.]).

Je však důležité poznamenat, že technologie, včetně AI, má obrovský potenciál pro zlepšení našeho života. Klíčem je vědomé a kritické používání AI a snaha o transparentnost a odpovědnost při vývoji a implementaci algoritmů ([Rahwan, I., et al. (2019). Society-wide effects of artificial intelligence. Nature Machine Intelligence, 1(2), 67-70.]).

Autor správně zdůrazňuje, že odpovědnost leží na nás, uživatelích. Měli bychom se aktivně snažit o divergentní myšlení, kriticky hodnotit informace získané z AI a podporovat etický vývoj a používání technologií.

Doporučené zdroje pro další studium:

  • Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy od Cathy O’Neil
  • Society-wide effects of artificial intelligence od Iyad Rahwan a kol. (Nature Machine Intelligence, 2019)
  • Články a studie o algoritmickém zkreslení a etice AI na webových stánkách institucí jako AI Now Institute a Partnership on AI.

Odkaz na originální video