Obrázek se svolením: Jое M.

Algoritmy nám říkají, jak přemýšlet, a to nás mění

Jak se počítače učí, jak nás napodobovat, začínáme být více jako oni?

Silicon Valley stále více předpovídá, jak budeme reagovat na e-mail, reagovat na něčí Instagramový obrázek, určit, na které vládní služby máme nárok, a brzy nadcházející Asistent Google bude moci zavolat kadeřníka pro nás ve skutečnosti - čas.

Algoritmy jsme pozvali prakticky všude, od nemocnic a škol až po soudní síně. Jsme obklopeni autonomní automatizací. Řádky kódu nám mohou říct, co máme sledovat, koho k dnešnímu dni a dokonce koho by měl soudní systém poslat do vězení.

Děláme chybu tím, že předáváme tolik rozhodovací pravomoci a kontroly řádkům kódu?

Jsme posedlí matematickými postupy, protože nám dávají rychlé a přesné odpovědi na řadu složitých problémů. Systémy strojového učení byly implementovány téměř ve všech oblastech naší moderní společnosti.

Přesto bychom se měli ptát sami sebe, děláme chybu tím, že předáváme tolik rozhodovací pravomoci a kontroly řádkům kódu? A jak algoritmy ovlivňují náš život?

V neustále se měnícím světě dělají stroje skvělou práci, když se učí, jak se lidé chovají, co se nám líbí a nenávidí a co je pro nás nejlepší rychlým tempem. V současné době žijeme v komorách prediktivní technologie - ahoj tam, Autocomplete!

Algoritmy drasticky proměnily naše životy tříděním údajů o rozlehlosti a poskytnutím relevantních okamžitých výsledků. Shromážděním velkého množství dat jsme společnostem v průběhu let dali pravomoc rozhodnout, co je pro nás nejlepší.

Společnosti, jako je Alphabet nebo Amazon, krmily svá data pomocí svých příslušných algoritmů a instruují AI, aby pomocí získaných informací přizpůsobily našim potřebám a byly více podobné nám. Přesto, když si na tyto užitečné funkce zvykneme, mluvíme a chováme se spíše jako počítač?

„Algoritmy nejsou ze své podstaty spravedlivé, protože osoba, která model sestavuje, definuje úspěch.“ - Cathy O´Neil, Data Scientist

Při této technologické rychlosti si nelze představit blízkou budoucnost, kde je naše chování vedeno nebo diktováno algoritmy. Ve skutečnosti se to už děje.

Google byl navržen tak, aby vám pomohl psát zprávy nebo rychlé odpovědi. V říjnu minulý rok uvedl na Gmailu svou nejnovější funkci v Gmailu nazvanou Smart Replies. Od té doby, co internet přijal bouřka, mnoho lidí kritizovalo asistenta a tvrdilo, že jeho přizpůsobené návrhy jsou invazivní, aby lidé vypadali jako stroje, přičemž někteří dokonce argumentují, že jeho odpovědi mohou nakonec ovlivnit způsob, jakým komunikujeme, nebo případně změnit e-mailovou etiketu.

Hlavní problém s algoritmy spočívá v tom, že když jsou tak velké a složité, začnou negativně ovlivňovat naši současnou společnost, čímž ohrožují demokracii - ahoj Mark Zuckerberg, nebo uvádějí občany do orwellovských opatření, jako je Čína, která využívá nebývalých prostředků k hodnocení úvěrového skóre lidí sledováním jejich chování s programem dystopického dozoru.

Protože se systémy strojového učení v mnoha oblastech společnosti stávají všudypřítomnější. Budou algoritmy řídit svět a převezmou naše myšlenky?

Nyní pojďme na Facebook. V roce 2015 uvedli svou novější verzi zpravodajského kanálu, který byl navržen jako vynalézavý způsob hrabání a povzbuzení zdroje uživatelů do personalizovaných novin, což jim umožňuje zapojit se do obsahu, který se jim dříve líbil, sdílel a komentoval.

Problém s „personalizovanými“ algoritmy spočívá v tom, že mohou uživatele vložit do filtračních bublin nebo do ozvěnových komor. Ve skutečném životě je většina lidí mnohem méně pravděpodobná, že se budou zabývat stanovisky, která považují za matoucí, nepříjemná, nesprávná nebo odporná. V případě algoritmů Facebooku dávají uživatelům to, co chtějí, a výsledkem je, že se krmení každé osoby stává jedinečným světem. Samotná výrazná realita.

Filtrační bubliny znesnadňují veřejné argumenty, protože z pohledu systému vypadají informace a dezinformace přesně stejně. Jak nedávno napsal Roger McNamee v časopise Time, „na Facebooku nejsou fakta absolutní; jsou volbou, která bude zpočátku ponechána uživatelům a jejich přátelům, ale poté je algoritmy zvětšeny pomocí algoritmů, které podporují zapojení. “

Filtrační bubliny vytvářejí iluzi, že všichni věří ve stejné věci, které děláme, nebo mají stejné návyky. Jak již víme, algoritmy na Facebooku tento problém zhoršily zvýšením polarizace a v konečném důsledku poškozením demokracie. S důkazem, že algoritmy mohly ovlivnit britské referendum nebo volby 2016 v USA

„Algoritmy Facebooku propagují extrémní zprávy před neutrálními, což může zvýšit dezinformaci nad informacemi, konspirační teorie nad fakty.“ - Roger McNamee, Silicon Valley Investor

V současném světě, který je neustále plný hrozivých hromádek informací, prosévání skrze něj představuje pro některé jednotlivce obrovskou výzvu. Umělá inteligence - používaná moudře - by mohla potenciálně vylepšit něčí zážitek online nebo by mohla urychleným způsobem vyřešit stále rostoucí množství obsahu. Pro správnou funkci však algoritmy vyžadují přesná data o tom, co se děje ve skutečném světě.

Společnosti a vlády musí zajistit, aby data algoritmů nebyla zkreslená nebo nepřesná. Protože v přírodě není nic dokonalého, očekává se, že přirozeně zkreslená data budou uvnitř mnoha algoritmů, což ohrožuje nejen náš online svět fyzickým, skutečným.

Je nezbytné se zasazovat o zavedení silnějších regulačních rámců, takže nekončíme v technologickém divokém západě.

Měli bychom být velmi opatrní ohledně síly, kterou dáváme také algoritmy. Obavy vzrůstají kvůli problémům spojeným s průhledností a etickým důsledkům rozhodování a procesů jimi prováděných a společenských důsledků ovlivňujících lidi.

Například umělá inteligence používaná v soudních síních může zvýšit zaujatost, diskriminovat menšiny tím, že zohlední „rizikové“ faktory, jako jsou jejich sousedství a vazby na zločin. Tyto algoritmy by mohly systematicky dělat katastrofální chyby a posílat nevinné skutečné lidi do vězení.

"Jsme v nebezpečí ztráty naší lidskosti?"

Jako odborník na bezpečnost napsal Bruce Schneier ve své knize Click Here to Kill Everybody, „pokud necháme počítače přemýšlet o nás a základní vstupní data jsou poškozená, udělají myšlení špatně a možná to nikdy nebudeme vědět.“

Hannah Fry, matematička z University College London, nás zavede do světa, ve kterém počítače pracují volně. Ve své nedávné knize Hello World: Být člověk ve věku algoritmů tvrdí, že jako občané bychom měli věnovat více pozornosti lidem za klávesnicí, těm, kteří algoritmy programují.

"Nemusíme vytvářet svět, ve kterém nám stroje říkají, co máme dělat nebo jak myslet, i když v takovém světě můžeme velmi dobře skončit," říká. V celé knize se často ptá: „Jsme v nebezpečí ztráty naší lidskosti?“

Momentálně ještě nejsme ve fázi, kdy jsou lidé mimo obraz. Naše role v tomto světě dosud nebyla odsunuta, ani to nebude ani dlouho. Lidé a stroje mohou spolupracovat se svými silnými a slabými stránkami. Stroje jsou chybné a dělají stejné chyby jako my. Měli bychom si dát pozor na to, kolik informací a síly se vzdáme, protože algoritmy jsou nyní nedílnou součástí lidstva a brzy se nikam nedostanou.