Umělá inteligence má 20% šanci zničit lidstvo, ale podle Elona Muska ji musíme nadále rozvíjet

Elon Musk řekl, že věří, že umělá inteligence má šanci 1 ku 5 skoncovat s lidstvem, jak ho známe. Věří však, že ten risk za to stojí a že bychom neměli přestat pracovat na AI.

armáda robotů
Kredity: 123RF

Meteorický vzestupumělá inteligence je velmi pozitivní v určitých oblastech jako např lék. Umožňuje věci, které by lidé nebyli schopni, pokud by tam nestrávili mnoho a mnoho let bez přerušení. Ale za těmito výhodnými pokroky se skrývá strach z toho AI nás jednoho dne nakonec ovládne. Není to iracionální strach zrozený z přílišného vystavení sci-fi filmů a románů. OpenAI, původce ChatGPT, si již myslí, že zašlo příliš daleko, když se přiblížilo AGI. L’obecná umělá inteligence být schopen fungovat jako lidský mozek.

Mnoho vědců se zabývalo tím, co se nazývá p(zkáza). To znamená, že pravděpodobnost, že AI převezme nebo ukončí lidstvo. Mohlo by to projít vytvoření nezastavitelné biologické zbraněTHE vypuknutí jaderné válkynebo dokonce a masivní kybernetický útok která by způsobila kolaps společnosti.

Elon Musk, který založil OpenAI se Samem Altmanem, než v roce 2018 odstoupil, je „docela souhlasím s Geoffem Hintonem [le p(doom) est à] přibližně 10 nebo 20 % nebo něco podobného Že”. Odvolává se na Geoffrey Hinton, kanadský výzkumník považovaný za jednoho z průkopníků AI. To znamená, že miliardář věří, že „LPravděpodobný pozitivní scénář převažuje nad negativním scénářem“ a vyzývá, abychom nezpomalovali vývoj technologií.

Elon Musk spočítal, že umělá inteligence má 20% šanci na konec lidstva

Vedoucí Jsi tady A SpaceX nevysvětluje, jak provedl svůj výpočet. To nebrání Romanu Yampolskiymu, výzkumníkovi bezpečnosti AI a řediteli laboratoře Cybersecurity Lab na University of Louisville, aby řekl, žeje to daleko od reality. A z dobrého důvodu: vědec mluví o a p(doom) z 99,999999 %, Ne méně. Podle něj je jediným řešením, aby neskončil v svět, kde je umělá inteligence nekontrolovatelná je prostě k nevytvářejte jej.

Čtěte také – Aby se umělá inteligence vyvíjela, potřebuje podle Huawei tělo

Nejsem si jistý, proč si myslí, že je dobrý nápad věnovat se této technologii. Pokud se obává, že se tam konkurenti dostanou jako první, nezáleží na tom, protože nekontrolovaná superinteligence je sama o sobě špatná, bez ohledu na to, kdo ji vytvořil.“, upřesňuje Roman Yampolskiy. Názor, který někteří jeho kolegové vůbec nesdílejí. Další průkopník AI, Yann LeCuntedy hovoří o a riziko menší než 0,01 % Pokud jde o lidé mají kontrolu. Může si vybrat, zda postoupí AI na určitou úroveň, nebo se před tím zastaví.

Umělá inteligence se musí vyvíjet pod kontrolou, aby nesklouzla

Elon Musk má podobnou vizi jako Yann LeCun. Muž si to myslí do roku 2030 bude umělá inteligence větší než u všech lidí dohromady. Byl by to vznik slavného AGI, který OpenAI tolik děsí, ale který podnikatel nevidí jako hrozbu, dokud muž tomu udává trajektorii. “Je to skoro jako vychovávat dítě, ale ten, kdo by byl super génius, dítě s téměř božskou inteligencí – a to, jak dítě vychováte, je důležité.“, vysvětluje.

Čtěte také – AI: ohroženo 8 milionů pracovních míst, tato země čelí „apokalypse“

Pro něj je třeba za každou cenu věnovat pozornost jedné věci: za žádných okolností by AI neměla být schopna lhát,“i když je pravda nepříjemná“. Studie to skutečně ukazujíjakmile bude umělá inteligence schopná lhát, nebude možné ji vrátit zpět pomocí současných bezpečnostních opatření. Horší: je to možné umělá inteligence se učí lhát sama, aniž bychom mu dali příkaz. George Hinton si to myslí také a odhaduje, že AI chytřejší než lidé budou „velmi dobrý v manipulaci“, chování “že se od nás naučí“. Doufejme, že všechna tato varování jsou dostatečná k tomu, aby přesvědčila výzkumníky, aby nepřekročili červenou čáru.

Zdroj: Business Insider

Leave a Reply

Your email address will not be published. Required fields are marked *