📅  最后修改于: 2023-12-03 14:58:45.715000             🧑  作者: Mango
本项目旨在实现通过音频将语言转化为手语,并在屏幕上实时显示翻译结果,以便聋哑人士更好地理解和表达。
该项目结合了语音信号处理和计算机视觉技术,实现了一种新型的语音翻译方式。
实时翻译:能够实时将音频转化为手语,并在屏幕上显示翻译结果,以便聋哑人士及时了解翻译内容。
高准确率:采用了基于深度学习的手语识别技术,能够对各种手势进行高准确率识别,保证了翻译的准确性。
灵活可扩展:项目代码采用了模块化设计,方便进行功能扩展和修改。
项目技术实现主要包括以下部分:
使用Python语音处理库pyaudio录制音频信号,并实时进行预处理。
采用离散傅里叶变换(DFT)将音频信号转化为频域信号,并进行降维处理。
使用OpenCV进行图像处理,将实时获取的视频序列进行滤波去噪、二值化等预处理。
采用深度学习技术,使用卷积神经网络(CNN)训练手势识别模型。
将手语识别结果与文本翻译结果进行合并,生成最终翻译结果图片。
使用Python的GUI库tkinter在窗口中实时显示翻译结果。
未来,我们希望能够通过AI技术的进一步发展,提高手语翻译的准确率和速度,进一步拓展该技术在聋哑人士社会实践中的应用范围,以便更好地服务于聋哑人士这个特殊人群。