Google і MIT працюють над ШІ, здатним чути і бачити одночасно


Массачусетський технологічний інститут (MIT) і Google займаються розробкою алгоритмів, які дадуть ШІ можливість сприймати візуальну, текстову і аудіо-інформацію для спілкування з людьми і підвищення ефективності взаємодії з довкіллям.

Google зосередилася на розпізнаванні мови і перекладі

Зовсім нещодавно компанія представила багатозадачну нейронну мережу MultiModel. Дослідники з Google заявляють:

Глибоке навчання дає відмінні результати у багатьох областях, від розпізнавання мови, і класифікації зображень до перекладу. Ми представляємо єдину модель для вирішення завдань різного типу.

Вони також відмічають, що нові алгоритми потенційно можуть спростити взаємне навчання між різними ШІ, що зменшить участь людини в цьому процесі.

Дослідники MIT заглибилися в область машинного зору

Метою досліджень було виявлення здатності алгоритмів ідентифікувати дані і обмінюватися ними за допомогою людських почуттів. Експеримент проводився на рівні “подразник-реакція”. Іншими словами, на “органи чуття” подавався подразник, а система по чітко заданій інструкції вчилася реагувати на них.

В результаті ШІ навчився розпізнавати різні форми інформації, що входить, і реагувати на них відповідним способом. Використовувалися звуки і зображення машин, людей і тварин, а ШІ описував їх зовнішній вигляд і здійснювані дії.

Коли людина дивиться на фото своїх близьких і посміхається, здається, що нічого складного не відбувається, проте у цей момент одночасно відбувається велика кількість процесів. Машина ж на сьогодні може відреагувати тільки на один з подразників: наприклад, або розпізнати зображення, або ” почути” звук. Сподіватимемося, що дослідники з Google і MIT зроблять крок вперед в цій області.

Джерело: The Stack

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *