우리 모두가 경험한 적이 있는 일입니다. 레스토랑에서 저녁 식사를 하며 친구를 만나든, 칵테일 파티에서 흥미로운 사람을 만나든, 사무실의 소란 속에서 회의를 하든, 우리는 배경의 수다와 일반적인 소음 속에서 소리를 지르지 않을 수 없습니다. 인간의 귀와 뇌는 시끄러운 환경에서 특정 대화에 집중하기 위해 별도의 소리 소스를 식별하는 데 특별히 능숙하지 않습니다. 이 능력은 사람들이 더 오래 살면서 더 흔해지고 있는 일반적인 청력 상실로 인해 더욱 악화되어 사회적 고립으로 이어질 수 있습니다.
하지만 워싱턴 대학교, 마이크로소프트 , 어셈블리 AI 의 연구진은 AI가 인간을 능가하여 음원을 분리하여 무음 지대를 만들 수 있다는 것을 보여주었습니다 . 이 사운드 버블은 반경 2m 이내의 사람들이 다른 스피커나 지대 밖의 소음으로 인한 간섭을 크게 줄여 대화할 수 있게 해줍니다.
현재 시중에서 판매되는 소음 제거 헤드셋은 배경 소음을 억제하지만 음원과의 거리나 밀폐된 공간에서의 반향과 같은 다른 문제는 보상하지 않습니다. 그러나 이전 연구에서는 신경망이 기존 신호 처리보다 음원을 더 잘 분리한다는 사실이 밝혀졌습니다. 이러한 발견을 바탕으로 골라코타의 그룹은 지정된 버블 크기 안팎에서 음원을 명확하게 식별하기 위해 오디오 데이터를 분석하는 통합 하드웨어-AI "청각 가능" 시스템을 설계했습니다. 그런 다음 이 시스템은 실시간으로 외부 소리를 억제하여 사용자가 듣는 것과 말하는 사람을 보는 동안 보는 것 사이에 눈에 띄는 지연이 없도록 합니다.
시스템의 오디오 부분은 최대 6개의 마이크가 있는 상업용 소음 제거 헤드셋으로, 근처와 더 먼 소리를 감지하여 신경망 분석을 위한 데이터를 제공합니다. 맞춤형 네트워크는 음원까지의 거리를 찾고 1m, 1.5m 또는 2m의 프로그래밍 가능한 버블 반경 내에 있는 음원을 판별합니다. 이러한 네트워크는 다양한 크기와 흡음 품질을 갖춘 22개의 방에서 수집한 시뮬레이션 및 실제 데이터로 훈련되었습니다.다양한 인간 피험자의 조합으로.이 알고리즘은 Orange Pi나 Raspberry Pi 와 같은 소형 내장형 CPU에서 실행되며 , 처리된 데이터를 밀리초 단위로 헤드폰으로 다시 전송합니다. 이는 청각과 시각을 동기화할 수 있을 만큼 빠른 속도입니다.
이 프로토타입의 알고리즘은 빈 거품 외부의 소리 볼륨을 약 0.001%인 49데시벨로 줄였습니다.거품 안에서 기록된 강도. 새로운 음향 환경에서 다른 사용자와 함께, 시스템은 거품 안에 있는 최대 두 개의 스피커와 더 큰 소리가 나더라도 외부에서 간섭하는 한두 개의 스피커에 대해 잘 작동했습니다. 또한 거품 안에 새로운 스피커가 들어오는 것도 수용했습니다.
via youtube
사운드 버블 기술은 결국 보청기에 통합될 수도 있습니다. Google 과 스위스 보청기 제조업체 Phonak은 각각 이어버드와 보청기에 AI 요소를 추가했습니다. Gollakota는 이제 사운드 버블 접근 방식을 편안하게 착용할 수 있는 보청기 형식으로 적용하는 방법을 고려하고 있습니다. 이를 위해서는 장치가 이어버드나 각 귀 뒤에 착용하는 구성에 맞아야 하고, 좌우 유닛 간에 무선으로 통신해야 하며, 작은 배터리로 하루 종일 작동해야 합니다.
골라코타는 이것이 가능하다고 확신합니다. 그는 "우리는 하드웨어와 알고리즘이 AI 증강을 지원하기 위해 함께 모이는 시점에 있습니다."라고 말합니다. "이것은 AI가 일자리를 대체하는 것이 아니라 인간-컴퓨터 인터페이스를 통해 사람들에게 긍정적인 영향을 미치는 것입니다."
https://youtu.be/K9hFz1fLADY
AI Headphones Create Cones of Silence
https://spectrum.ieee.org/noise-cancelling-headphones
댓글 없음:
댓글 쓰기