AI možná nepotřebuje masivní tréninková data

AI možná nepotřebuje masivní tréninková data

Foto: Shutterstock

Nový výzkum ukazuje, že AI nepotřebuje nekonečná tréninková data

Autor původního článku: redakce

Nový výzkum z Johns Hopkins University ukazuje, že systémy umělé inteligence, které jsou navrženy podle biologických vzorů, mohou začít připomínat aktivitu lidského mozku ještě předtím, než jsou trénovány na jakýchkoli datech. Studie naznačuje, že struktura AI může být stejně důležitá jako množství dat, které zpracovává. Tato zjištění zpochybňují dominantní strategii ve vývoji AI, která se spoléhá na velké datové sady a výpočetní výkon.

Přehodnocení přístupu k AI založeného na velkých datech

„Směr, kterým se nyní pole AI ubírá, je házet na modely spoustu dat a budovat výpočetní zdroje velikosti malých měst. To vyžaduje utrácení stovek miliard dolarů. Mezitím se lidé učí vidět s velmi malým množstvím dat,“ řekl hlavní autor Mick Bonner, asistent profesora kognitivní vědy na Johns Hopkins University. „Evoluce mohla k tomuto designu dospět z dobrého důvodu. Naše práce naznačuje, že architektonické návrhy, které jsou více podobné mozku, dávají systémům AI velmi výhodný výchozí bod.“

Srovnání populárních architektur AI

Výzkumný tým se zaměřil na tři hlavní typy návrhů neuronových sítí běžně používaných v moderních systémech AI: transformátory, plně propojené sítě a konvoluční neuronové sítě. Tyto návrhy opakovaně upravovali, aby vytvořili desítky různých umělých neuronových sítí. Žádný z modelů nebyl předem trénován. Výzkumníci pak ukázali netrénovaným systémům obrázky objektů, lidí a zvířat a porovnali jejich vnitřní aktivitu s mozkovými reakcemi lidí a nehumánních primátů, kteří sledovali stejné obrázky.

Proč konvoluční sítě vynikly

Zvyšování počtu umělých neuronů v transformátorech a plně propojených sítích přineslo jen málo smysluplných změn. Avšak podobné úpravy konvolučních neuronových sítí vedly k vzorcům aktivity, které se více podobaly těm, které jsou vidět v lidském mozku. Podle výzkumníků tyto netrénované konvoluční modely fungovaly na úrovni tradičních systémů AI, které obvykle vyžadují vystavení milionům nebo dokonce miliardám obrázků. Výsledky naznačují, že architektura hraje větší roli při formování chování podobného mozku, než se dříve věřilo.

Rychlejší cesta k chytřejší AI

„Pokud je trénink na masivních datech skutečně klíčovým faktorem, pak by nemělo být možné dosáhnout systémů AI podobných mozku pouze prostřednictvím architektonických úprav,“ řekl Bonner. „To znamená, že začínáním se správným plánem a možná začleněním dalších poznatků z biologie bychom mohli dramaticky urychlit učení v systémech AI.“ Tým nyní zkoumá jednoduché metody učení inspirované biologií, které by mohly vést k nové generaci rámců hlubokého učení, potenciálně činící systémy AI rychlejšími, efektivnějšími a méně závislými na masivních datových sadách.

Mohlo by vás zajímat

Původní článek: AI may not need massive training data after all

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *