Как-то раз при просмотре «Трансформеров» со своего лэптопа Айрис Ву (Iris Wu), изучавшая звуковые технологии в Нью-Йоркском Универститете, опечалилась: на экране рушились здания, бегали огромные роботы и спасали мир, а звук был пустым и «неэпичным». И она начала думать над тем, как можно улучшить звучание таких непрофессиональных и небольших устройств, как ноутбуки. Это привело к созданию стартапа Ambidio, который уже поддержали Horizons Ventures, will.i.am и Skywalker Sound.

Стартап обещает, что с помощью нового метода кодирования из обычных стереодинамиков можно будет получить объемный звук. Отличие от большинства представленных ранее технологий, улучшающих стереозвучание, в том, что Ambidio можно применить напрямую к фильмам или звукозаписям без использования дорогостоящего оборудования, или подключить к источнику звука напрямую в реальном времени.

Это не первая технология такого плана — уже существует HRTF (Head Related Transfer Function, передаточная функция головы), но Ву говорит, что ее разработка не имеет с HRTF ничего общего: «Мы не симулируем виртуальные уши, виртуальные динамики и не используем никакие HRTF-подстройки вроде эквалайзера. Теория несколько иная — мы позволяем мозгу самому расположить источник звука, как мы делаем в реальной жизни».

Стартап серьезно концентрируется на нейронауке. «Мы пытаемся понять, каким образом мозг обрабатывает звуки. К примеру, на самом деле мы постоянно следим за окружающей нас звуковой картиной и можем выбирать, на чем фокусироваться, а что опустить. Эти знания позволяют нам настраивать Ambidio, причем не просто создавая более крутой звук, но и делая его доступным каждому».

По утверждению Айрис Ву, технологию можно применить к чему угодно — и к шлемам виртуальной реальности, и к саундбарам. Другой такой, как она считает, не существует.