對於聽力受損的人來說,身處嘈雜環境,如多人同時交談的場合,可能會帶來極大的困擾。即使有助聽器的幫助,他們也難以清晰地聽到對方的話語。為了解決這一問題,康奈爾大學電腦科學專業的學生尼爾拜·納朗(Nirbhay Narang)創立了 AirCaps 公司,並開發了一種創新的解決方案:結合智能眼鏡和智慧型手機的技術。

AirCaps 的工作原理是,通過智慧型手機的麥克風捕捉對話內容,利用手機內置的 AI 技術實時將對話內容轉錄成文字,然後將這些文字資訊發送到智能眼鏡上顯示出來。這樣一來,聽力受損的用戶就能夠清晰地看到對話內容,從而避免受到背景噪音的干擾。
納朗表示,他對人機交互領域充滿熱情,並認為自己更偏向於設計師的角色。然而,他也有朋友在智能眼鏡領域有工作經驗,這為他開發 AirCaps 提供了有力的支持。目前,AirCaps 已經開始接受預訂,並計劃為更多聽力受損的人提供便利。
在美國,大約有 3000 萬人患有殘疾性聽力損失。納朗指出,助聽器對於很多人來說並不完美,而且價格昂貴,還無法有效過濾掉背景噪音。因此,AirCaps 的出現為這些人提供了一個新的選擇。
康奈爾理工大學資訊科學系的副教授塔潘·帕里克(Tapan Parikh)對 AirCaps 的技術給予了高度評價,認為這是一項真正的創新技術,具有廣泛的應用前景。納朗在 2023 年找到了帕里克,並與他一起完成了多個與人工智慧和大型語言模型相關的獨立研究項目。帕里克對納朗的工作態度和效率表示讚賞,認為他工作努力且速度非常快。
除了為聽力受損的人提供字幕服務外,納朗還認為 AirCaps 的智能眼鏡具有其他一系列潛在的應用,比如支持注意力缺陷人群或幫助學習第二語言的人。