Тя се основава на дифузия - метод за машинно обучение, при който визуалният образ се генерира чрез последователни приближения

Университетът в Осака е разработил невронна мрежа, способна да реконструира образа, който човек гледа в момента. Анализирайки данни от функционален ядрено-магнитен резонанс, системата прецизно възпроизвежда не само формата, но и цветовете на обектите. Учените говорят за първата в света машина за четене на мисли.

Обхватът на приложенията на обещаващата технология на компютърното зрение е много широк: от общуване с парализирани хора до записване на сънища и изучаване на начина, по който различните животни възприемат света около себе си.

Японски изследователи са се възползвали от предимствата на Stable Diffusion - популярна програма за преобразуване на текст в реч. Тази невронна мрежа с отворен код е подобна по структура на други генеративни LLM (Large language models), като DALL-E2 на OpenAI (създател на ChatGPT) или Midjourney.

Специален уред чете мисли

Тя се основава на дифузия - метод за машинно обучение, при който визуалният образ се генерира чрез последователни приближения. Всяка нова итерация се базира на друга текстова реплика.

Японците са комбинирали визуална и семантична информация. Дифузионният алгоритъм е сравнявал наблюдаваните модели на невронна активност, формирани при разглеждане на снимки, с моделите в набора от данни за обучение. Сигналите от "визуалната" кортикална област са били използвани за изграждане на общ обем и перспектива. След това били свързани сигналите от семантичния декодер на сигнали и първичната картина, приличаща повече на смущение на телевизионния екран, постепенно придобила очертанията на разпознаваеми обекти.

Учените получиха около хиляда изображения, които съвпаднаха със смисъла и съдържанието на оригинала с точност до 80%. В повечето случаи изкуственият интелект дори пресъздава цветовата схема на оригиналното изображение.

Новините на NOVA - вече в InstagramTwitterTelegram и Viber - последвайте ни. За още новини харесайте и страницата ни във Facebook.

 
Източник: БГНЕС