Hlavní Náběžná Hrana 16 nepříjemných otázek, které se každý musí ptát na umělou inteligenci

16 nepříjemných otázek, které se každý musí ptát na umělou inteligenci

Váš Horoskop Pro Zítřek

Jen devět obřích technologických společností v USA a Číně stojí za drtivou většinou pokroků v oblasti umělé inteligence po celém světě. Ve své nové knize The Big Nine: How the Tech Titans and their Thinking Machines Could Warp Humanity (PublicAffairs, 5. března), Amy Webb předpokládá tři možné budoucnosti, od optimistické až po apokalyptické, které by mohly vyplynout z akcí, které podnikáme - nebo nepřijímáme - ke kontrole vývoje A.I. a formovat jeho globální dopad. V tomto úryvku předkládá řadu náročných etických otázek, které lidé budující A.I. systémy by se měly řídit jejich prací.

Pravidla - algoritmus - podle nichž každá kultura, společnost a národ žije a kdy žila, vždy vytvářelo jen několik lidí. Demokracie, komunismus, socialismus, náboženství, veganství, nativismus, kolonialismus - to jsou konstrukty, které jsme v průběhu historie vyvinuli, abychom se mohli řídit našimi rozhodnutími. Ani v těch nejlepších případech nejsou budoucností. Technologické, sociální a ekonomické síly vždy zasahují a způsobují, že se musíme přizpůsobit.

Deset přikázání tvoří algoritmus určený k vytvoření lepší společnosti pro lidi naživu před více než 5 000 lety. Jedním z přikázání je věnovat si celý den odpočinku v týdnu a celý den neprovádět žádnou práci. V moderní době většina lidí nepracuje přesně stejné dny nebo hodiny z týdne na týden, takže by bylo nemožné neporušit pravidlo. Výsledkem je, že lidé, kteří se řídí deseti přikázáními jako hlavní zásadou, mají při výkladu flexibilitu vzhledem k realitě delších pracovních dnů, fotbalových tréninků a e-mailů. Přizpůsobení je v pořádku - funguje to opravdu dobře pro nás i pro naše společnosti, což nám umožňuje zůstat na správné cestě. Dohodnutí se na základní sadě pokynů nám umožňuje optimalizovat se pro sebe.

lynda carter čisté jmění 2018

Neexistoval by způsob, jak vytvořit soubor přikázání pro A.I. Nemohli jsme vypsat všechna pravidla, abychom správně optimalizovali pro lidstvo, a to proto, že zatímco myslící stroje mohou být rychlé a výkonné, postrádají flexibilitu. Neexistuje snadný způsob, jak simulovat výjimky nebo předem vyzkoušet každou jednotlivou událost. Jakákoli pravidla by mohla být napsána, v budoucnu by vždy existovala okolnost, kdy by někteří lidé mohli chtít pravidla interpretovat odlišně, nebo je úplně ignorovat, nebo vytvořit dodatky za účelem zvládnutí nepředvídané okolnosti.

Věděli jsme, že nemůžeme napsat soubor přísných přikázání, která bychom měli dodržovat, měli bychom místo toho zaměřit naši pozornost na lidi, kteří budují systémy? Tito lidé - kmeny A.I. - by si měli klást nepříjemné otázky, počínaje:

brandi passerby čisté jmění 2017
  • Jaká je naše motivace pro A.I.? Je to v souladu s nejlepšími dlouhodobými zájmy lidstva?
  • Jaká jsou naše vlastní předsudky? Jaké myšlenky, zkušenosti a hodnoty jsme do našeho kmene nezahrnuli? Koho jsme přehlédli?
  • Zahrnuli jsme lidi na rozdíl od nás za účelem vytváření budoucnosti A.I. lépe - nebo jsme do našeho týmu jednoduše zahrnuli rozmanitost, abychom splnili určité kvóty?
  • Jak můžeme zajistit, aby naše chování bylo inkluzivní?
  • Jaké jsou technologické, ekonomické a sociální důsledky A.I. rozumějí ti, kdo se podílejí na jeho tvorbě?
  • Jaká základní práva bychom měli mít k výslechu datových sad, algoritmů a procesů používaných k rozhodování naším jménem?
  • Kdo získá definici hodnoty lidského života? Proti jaké hodnotě se váží tato hodnota?
  • Kdy a proč mají lidé v kmenech A.I. pocit, že je jejich odpovědností řešit sociální důsledky A.I.?
  • Vede naše organizace a naše A.I. kmeny odrážejí mnoho různých druhů lidí?
  • Jakou roli hrají ti, kteří komercializují A.I. hrát při řešení sociálních důsledků A.I.?
  • Měli bychom pokračovat v porovnávání A.I. k lidskému myšlení, nebo je pro nás lepší kategorizovat to jako něco jiného?
  • Je v pořádku stavět A.I. který rozpoznává lidské emoce a reaguje na ně?
  • Je v pořádku dělat A.I. systémy schopné napodobit lidské emoce, zvláště pokud se od nás učí v reálném čase?
  • Jaký je přijatelný bod, kdy jsme všichni v pořádku s A.I. vyvíjející se bez lidí přímo ve smyčce?
  • Za jakých okolností může A.I. simulovat a zažít běžné lidské emoce? A co bolest, ztráta a osamělost? Způsobujeme to utrpení v pořádku?
  • Vyvíjíme A.I. usilovat o hlubší pochopení sebe sama? Můžeme použít A.I. pomoci lidstvu žít zkoumanější život?

Existuje devět velkých technologických společností - šest amerických a tři čínské - které jsou z velké části zodpovědné za budoucnost umělé inteligence. V USA jsou to Google, Microsoft, Amazon, Facebook, IBM a Apple (dále jen „G-MAFIA“). V Číně jsou to BAT: Baidu, Alibaba a Tencent.

G-MAFIA začala řešit problém vedení principů prostřednictvím různých výzkumných a studijních skupin. V rámci Microsoftu je tým s názvem FATE - for Fairness, Accountability, Transparency, and Ethics in A.I. V návaznosti na skandál Cambridge Analytica zahájil Facebook etický tým, který vyvíjel software, aby zajistil, že jeho A.I. systémy se vyhnuly zaujatosti. (Zejména Facebook nešel tak daleko, že vytvořil etickou radu zaměřenou na A.I.) DeepMind vytvořil etický a společenský tým. IBM pravidelně publikuje o etice a A.I. V návaznosti na skandál v Baidu - vyhledávač upřednostňoval zavádějící lékařská tvrzení z vojenské nemocnice, kde léčba vedla ke smrti 21letého studenta - generální ředitel Baidu Robin Li připustil, že zaměstnanci udělali kompromisy kvůli růstu výnosů Baidu a slíbil, že se v budoucnu zaměří na etiku.

Alicia Witt se provdala za Nathana Faulgera

The Big Nine produkuje etické studie a bílé knihy, svolává odborníky k diskusi o etice a je hostitelem panelů o etice - ale toto úsilí není dostatečně propojeno s každodenními operacemi různých týmů pracujících na A.I.

The Big Nine's A.I. systémy stále více přistupují k našim skutečným datům za účelem vytváření produktů, které vykazují komerční hodnotu. Vývojové cykly se zrychlují, aby držely krok s očekáváním investorů. Byli jsme ochotni - pokud nevědomky - účastníci v budoucnosti, která se vytváří spěšně a aniž bychom nejprve odpověděli na všechny tyto otázky. Jako A.I. systémy postupují a více každodenního života se automatizuje, tím menší kontrolu ve skutečnosti máme nad rozhodováním o nás a za nás.

Amy Webb se objeví na Inc. Founders House v Austinu 11. března.