Задержка сколько в миллисекундах? И что используете в качестве входа и выхода звука?
Задержка сколько в миллисекундах? И что используете в качестве входа и выхода звука?
На мой взгляд компрессор можно упростить. Я делал так:
1. Исходный звуковой сигнал умножаем на комплексную экспоненту частотой около 1.5 кГц (середина полосы речевого сигнала).
2. Полученные квадратуры пропускаем через ФНЧ 1.4 кГц.
3. Длину комплексного вектора пропускаем через ограничитель. Фазу не трогаем.
4. Снова пропускаем квадратуры через ФНЧ 1.4 кГц.
5. Далее домножаем на cos и sin 1.5 кГц, суммируем и получаем выходной сигнал.
Мою экспериментальную программу написанную по этому принципу более 10 лет назад можно скачать тут. Но она не реал тайм -- обрабатывает wav файлы. Такой же принцип компрессора, но уже в реал тайме в FPGA сделан в DUC передатчика для OSA103 Mini.
RN6LIQ Не мерял я время задержки, Но что-то сказать и самого себя слушать невозможно - язык заплетается. Вход-выход - звуковая карта ноутбука. Кубэйс работает через АСИО - там нет задержки.
тема известная, дефолтовый драйвер MME имеет очень большую задержку, по сравнению с ASIO или директ Х
программу автора не скачивал еще, не знаю, есть ли там возможность переключить, сорри
но, хочу отметить, что идея отличная, простой доступный стек обработок, без необходимости скачивания студийных программ и плагинов
даже можно и без самоконтроля использовать вполне, ну задержка, не всем необходимо себя родного слушать ) главное что бы корреспондент услышал
Последний раз редактировалось EU1SW; 28.10.2021 в 17:32.
Да идея-то очень хорошая. Но даже чтобы отрегулировать его - язык заплетается.
а на слух что б отрегулировать, самый лучший вариант будет еще больше увеличить задержку, несколько секунд вообще, что бы слышать как эхо, тогда мозг не пытается собрать все в кучу, язык расплетается обратно, и слышно хорошо результат, без помех от прямого звука через кости черепа.
как вариант - записать файл звуковой непосредственно с микрофона, и крутить его в петле внешним программным проигрывателем через виртуальные провода, тогда все решается просто бегом...
Ну как бы программа не для музыкальных обработок, что бы тут же слышать свой голос. В рабочем режиме все это будет уходить сразу в эфир, без самопрослушки. Задержка, даже в 200 миллисекунд, не сильно влияет на QSO. А настраивать нужно не по звуку на слух, а по средней (средней части экрана) временной диаграмме. Отслеживать графически, а не на слух. На слух просто убедится, что при различных включенных или выключенных кубиках мнемосхемы присутствуют или не присутствуют посторонние помехи, есть или нет нелинейные искажения.
Последний раз редактировалось RN6LIQ; 28.10.2021 в 19:42.
Спасибо от EU1SW
Нет, вы не подумайте, что я пытаюсь обгадить вашу программу. Действительно нужный и полезный продукт. Стараюсь помочь вам его улучшить.
Вот сейчас взял и попробовал его на другом ноутбуке. На выходе искаженная до неузнаваемости речь. Сравнить можно с настройкой в SSB режиме на станцию по очень низким частотам - низкочастотная искаженная речь. Или вот в аудиоредакторах есть такая функция делать голос то как у Буратино, то вовсе уж в низкие частоты загонять. Так и в этом случае. Вам такое не попадалось? Два нуотбука (DELL и LENOVO) два разных результата. Почему? При попытке пропустить это через тракт трансивера не заметил какого-то значительного снижения пик-фактора, хотя регуляторы программы почти на максимуме. Лимитер в редакторах дает гораздо лучшие результаты.
Пошел к соседу, взял у него ноутбук ASER. Те же проблеммы - звук рваный, искаженный, с хрипотой. Никакие регулировки в программе не помогают.
А что, я единственный, кто уже попробовал эту прогу? Никто ничего не говорит об испытаниях. Только бла-бла - хорошая, нужная... Давайте же поможем автору доработать его такую нужную программу.
Ага, 4 ядра в восемь потоков 3,8гГц - заработался.
Ну, кто-нибудь - скачайте и попробуйте. Недолго же!
Эту тему просматривают: 1 (пользователей: 0 , гостей: 1)