Як повідомляє ресурс SlashGear, інженери MIT розробили датчик GelSight, який створює тактильні сигнали на основі зображення об'єктів і пророкує, до якого предмету і в якій його частині торкається маніпулятор роботизованої руки.

Читайте також: Нейромережа дописала симфонію, написану 115 років тому

Навчання ШІ. Для навчання системи використовувалася веб-камера, за допомогою якої було записано близько 12 000 роликів, які демонструють різні речі. Отримані записи після розбивки на кадри склали базу даних з більш ніж 3 мільйонів зображень, зіставлених з тактильними сигналами.

За словами вчених, на поточному етапі розробки робот може уявити відчуття дотику до плоскої поверхні або гострого краю.

Глава команди дослідників Юньчжу Лі стверджує: торкаючись оточуючого середовища, модель може передбачити взаємодію з предметом з чисто тактильних відчуттів. Він також зазначив, що якщо об'єднати два почуття (зір і дотик), можна розширити можливості робота і зменшити обсяг даних, необхідних для виконання завдань, які пов'язані з маніпулюванням і захопленням об'єктів.

Майбутнє розробки. У перспективі дослідники сподіваються розширити можливості моделі для підвищення точності взаємодій з навколишнім середовищем.

Більше новин, що стосуються подій зі світу технологій, ґаджетів, штучного інтелекту, а також космосу читайте у розділі Техно