Как правило, люди могут достаточно хорошо выделять голос одного собеседника в шумной толпе, то компьютеры с этой задачей справляются значительно хуже. Однако в компании Google разработали решение для устранения этой проблемы.
Группа исследователей в рамках Google разработала систему глубокого обучения, которая способна выделять конкретные голоса, фиксируя лица людей и определяя, когда они говорят. Команда обучила свою нейронную сеть распознавать отдельных говорящих людей, а затем создавала виртуальные «группы» (вместе с фоновым шумом), чтобы научить ИИ, как изолировать несколько голосов на отдельные звуковые дорожки.
В результате, система искусственного интеллекта научилась достаточно хорошо распознавать голос отдельного человека, даже когда несколько человек говорит одновременно. При этом, получается создавать отдельные звуковые дорожки с чистой речью каждого говорящего. ИИ справляется даже с теми ситуациями, когда человек частично закрывает лицо.
В настоящее время Google изучает возможности использования этой функции в своих продуктах. В качестве основных сфер применения называются видеочаты (Hangouts или Duo), где система сможет помочь понять, кто говорит в переполненном помещении. Также данное решение может быть полезно для улучшения речи при записи видео. Кроме того, возможны применения и в других сферах. Например, объединив слуховой аппарат с камерой, можно усиливать звук голоса собеседника, отсекая фоновые звуки и голоса других людей. Хотя существуют и потенциальные проблемы конфиденциальности, если кто-то решит воспользоваться системой для публичного подслушивания.