Изправени пред бебе, което крещи и хвърля храна по пода, изтощените родители може да се изненадат да чуят, че тяхното любимо отроче е може би най-умният ученик в познатата ни вселена. Но някои компютърни учени отдавна са признали това и сега се опитват да имитират изключителните способности за обработка на информация на бебетата, за да разработят модели за изкуствен интелект. В някои отношения нашите най-нови технологични творения изглеждат почти магически по своите възможности, но когато става дума за автономно обучение, те са изключително глупави. Могат ли да бъдат обучени да учат, както правят мозъците на бебетата, като изследват частични, объркани данни от реалния свят? Този въпрос задава Джон Торнхил в коментар за Financial Times.
Екип от изследователи от Нюйоркския университет се опитва да направи точно това и този месец публикува своите открития в списание Science. Техният експеримент извлича данни от лека камера, прикрепена към главата на бебе на име Сам, живеещо в Аделайда, записвайки 61 часа от живота му от 6- до 25-месечна възраст.
Видеопотокът, включващ разбъркани кадри и звуци на родители, котки, игра и играчки, след това е обработен в 600 хил., кадъра и 37 500 транскрибирани "изисквания" и е въведен в невронна мрежа. Предизвикателството било да се съпостави това, което Сам е видял в приблизително 1% от времето, в което е бил буден, със звуците, които е чул, за да се създаде мултимодален AI модел.
Но как бебето разбира, че думата "топка" се отнася до много различни видове кръгли, подскачащи, разноцветни предмети? Когнитивните учени са разделени по отношение на обяснението за това, но всички са съгласни, че бебетата са удивително умели ученици, правейки обобщения от много малко подадени данни. Между шестия и деветия месец бебетата започват да свързват думи и образи. Преди да навършат две години, те научават средно 300 думи, предимно съществителни.
Досега опитите за изграждането на мултимодални AI модели, които могат да комбинират текст, изображения, аудио и видео, разчитаха най-вече на прилагането на огромна изчислителна мощ към големи количества подбрани данни. Изследвателите от Нюйорския университет обаче са открили, че техният модел може успешно да свързва изображения и звуци със значително по-малко данни от видео емисията на едно бебе. Техният модел има степен на точност от 61,6%, когато става дума за класицифиране на 22 "визуални концепции".
"Бяхме много изненадани, че моделът може да покаже забележителна степен на обучение предвид ограничените данни, с които разполагаше", споделя Уай Кийн Вонг, водещ автор на доклада на Нюйоркския университет.
Тези констатации са окуражаваща подкана за разработване на бъдещи модели на изкуствен интелект. Но, както отбелязва Вонг, те също така подчертават феноменалните способности на бебетата за учене, които могат да реагират на визуални сигнали и да развият свои собствени хипотези за учене. Част от причината за тяхното преждевременно развитие е, че човешките бебета прекарват необичайно дълго време в активно изследване на света, преди да трябва да се справят сами.
Прочетете цялата статия в investor.bg
Снимка: Pixabay
преди 10 месеца