Учени създадоха първата машина за четене на мисли

5

Университетът в Осака е разработил невронна мрежа, способна да реконструира образа, който човек гледа в момента. Анализирайки данни от функционален ядрено-магнитен резонанс, системата прецизно възпроизвежда не само формата, но и цветовете на обектите. Учените говорят за първата в света машина за четене на мисли, пише БГНЕС.
Обхватът на приложенията на обещаващата технология на компютърното зрение е много широк: от общуване с парализирани хора до записване на сънища и изучаване на начина, по който различните животни възприемат света около себе си.
Японски изследователи са се възползвали от предимствата на Stable Diffusion – популярна програма за преобразуване на текст в реч. Тази невронна мрежа с отворен код е подобна по структура на други генеративни LLM (Large language models), като DALL-E2 на OpenAI (създател на ChatGPT) или Midjourney.

Reading and Mind Control Technologies Are Coming https://t.co/jTzCfFNZaS “Nothing is more private than a thought” via @sciam#mindreadingnews
— Mind Reading (@MindReading_) January 10, 2022
Тя се основава на дифузия – метод за машинно обучение, при който визуалният образ се генерира чрез последователни приближения. Всяка нова итерация се базира на друга текстова реплика.

Японците са добавили допълнителна стъпка на обучение към стандартната схема за Stable Diffusion. Така невронната мрежа сравнява данните за мозъчната активност на четирима участници в експеримента, на които са показани различни снимки с текстови описания на изображенията.
За начални сигнали били взети данни от функционален магнитен резонанс (fMRI), получени на мощни машини с индукция на магнитното поле 7 Тесла. Като записват потока от кислородни молекули, необходими за работата на невроните, тези устройства са в състояние да наблюдават кои области на мозъка, отговорни за определени чувства или емоции, са най-активни.
Във фазата на машинното обучение на участниците бяха показани десет хиляди изображения и системата събра генерираните в процеса на изследване модели на fMRI, които след това бяха декодирани от изкуствен интелект.
Анализирайки пиковете, регистрирани чрез fMRI в различни области на мозъка, учените откриват, че темпоралните лобове са отговорни за съдържанието на образите. Това е така наречената семантична зона. А тилната, където се намира зрителната кора, пресъздава размера и общото разположение на обектите.
Резултатите до голяма степен съответстват на хипотезата за два потока визуална информация, формулирана през 1983 г. от американския невропсихолог Мортимър Мишкин. Той предложи, че в мозъчната кора да има два анатомично и функционално различни канала за обработка на пространствена и предметна информация: „Къде?“ и „Какво?“.
При макаци резус Мишкин показа, че тилният (дорзален) канал „Къде?“ е отговорен за възприемането на пространството, а темпоралният (вентрален) канал „Какво?“, тясно свързан с паметта, е отговорен за разпознаването.
Японците са комбинирали визуална и семантична информация. Дифузионният алгоритъм е сравнявал наблюдаваните модели на невронна активност, формирани при разглеждане на снимки, с моделите в набора от данни за обучение. Сигналите от „визуалната“ кортикална област са били използвани за изграждане на общ обем и перспектива. След това били свързани сигналите от семантичния декодер на сигнали и първичната картина, приличаща повече на смущение на телевизионния екран, постепенно придобила очертанията на разпознаваеми обекти.
Учените получиха около хиляда изображения, които съвпаднаха със смисъла и съдържанието на оригинала с точност до 80%. В повечето случаи изкуственият интелект дори пресъздава цветовата схема на оригиналното изображение.
„Представеният документ показа, че невронната мрежа Stable Diffusion може точно да реконструира изображения от сканирания с fMRI, а това ни позволява ефективно да четем мислите на хората“, се отбелязва в резюмето.
„Показваме, че нашият метод, базиран на човешката мозъчна активност, може да реконструира изображения с достатъчна резолюция и висока семантична точност“, уточняват японските изследователи.

Коментари
Зареждане...