您好,登錄后才能下訂單哦!
這篇文章主要介紹“Java如何調(diào)用系統(tǒng)揚聲器”的相關(guān)知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“Java如何調(diào)用系統(tǒng)揚聲器”文章能幫助大家解決問題。
接下來就對這個小功能進行分析和實現(xiàn)。先寫一個Demo。
1.首先,我們需要一個dll作為輔助。這里解釋一下dll的含義(DLL(Dynamic Link Library)文件為動態(tài)鏈接庫文件,又稱“應(yīng)用百程序拓展”,是軟件文件類型。在Windows中,許多應(yīng)用程序并不是一個度完整的可執(zhí)行文件,它們被分割成一些相知對獨立的動態(tài)鏈接庫,即DLL文件,放置于道系統(tǒng)中。當(dāng)我們執(zhí)行某一個程序時,相應(yīng)的版DLL文件就會被調(diào)用。一個應(yīng)用程序可使用權(quán)多個DLL文件,一個DLL文件也可能被不同的應(yīng)用程序使用,這樣的DLL文件被稱為共享DLL文件)。
需要把jacob-1.17-M2-x64.dll復(fù)制到C:WindowsSystem32目錄下。我們也能看到目錄下有很多的.dll文件。
這里的文件大家自己百度下,很好找的。
2.使用maven項目導(dǎo)入坐標(biāo)。
<!-- https://mvnrepository.com/artifact/net.sf.jacob-project/jacob -->
<dependency>
<groupId>net.sf.jacob-project</groupId>
<artifactId>jacob</artifactId>
<version>1.14.3</version>
</dependency>
3.測試類代碼。
/**
* 文字轉(zhuǎn)語音測試 jdk bin文件中需要導(dǎo)入jacob-1.17-M2-x64.dll
* 注意導(dǎo)包哈
* @date: 2020年2月25日 上午10:05:21
*/
public class Jacobtest {
public static void main(String[] args) {
textToSpeech("工作人員請注意,桌號8001顧客正在尋求幫助??!");
}
/**
* 語音轉(zhuǎn)文字并播放
*
* @param text
*/
public static void textToSpeech(String text) {
ActiveXComponent ax = null;
try {
ax = new ActiveXComponent("Sapi.SpVoice");
// 運行時輸出語音內(nèi)容
Dispatch spVoice = ax.getObject();
// 音量 0-100
ax.setProperty("Volume", new Variant(100));
// 語音朗讀速度 -10 到 +10
ax.setProperty("Rate", new Variant(0));
// 執(zhí)行朗讀
Dispatch.call(spVoice, "Speak", new Variant(text));
/* // 下面是構(gòu)建文件流把生成語音文件
ax = new ActiveXComponent("Sapi.SpFileStream");
Dispatch spFileStream = ax.getObject();
ax = new ActiveXComponent("Sapi.SpAudioFormat");
Dispatch spAudioFormat = ax.getObject();
// 設(shè)置音頻流格式
Dispatch.put(spAudioFormat, "Type", new Variant(22));
// 設(shè)置文件輸出流格式
Dispatch.putRef(spFileStream, "Format", spAudioFormat);
// 調(diào)用輸出 文件流打開方法,創(chuàng)建一個.wav文件
Dispatch.call(spFileStream, "Open", new Variant("./text.wav"), new Variant(3), new Variant(true));
// 設(shè)置聲音對象的音頻輸出流為輸出文件對象
Dispatch.putRef(spVoice, "AudioOutputStream", spFileStream);
// 設(shè)置音量 0到100
Dispatch.put(spVoice, "Volume", new Variant(100));
// 設(shè)置朗讀速度
Dispatch.put(spVoice, "Rate", new Variant(-2));
// 開始朗讀
Dispatch.call(spVoice, "Speak", new Variant(text));
// 關(guān)閉輸出文件
Dispatch.call(spFileStream, "Close");
Dispatch.putRef(spVoice, "AudioOutputStream", null);
spAudioFormat.safeRelease();
spFileStream.safeRelease();*/
spVoice.safeRelease();
ax.safeRelease();
} catch (Exception e) {
e.printStackTrace();
}
}
}
4.從測試類可以看出,這個方法既可以發(fā)聲還能輸出后綴為.wav的文件,這是一個標(biāo)準(zhǔn)的多媒體文件。上述代碼注釋很清晰,就不解釋了,自己看哈。
5.測試成功,現(xiàn)在集成到自己的項目中。
這里說到了調(diào)用揚聲器發(fā)聲,不放還可以想一下如何調(diào)用麥克風(fēng)收音。
public class EngineeCore {
String filePath = "E:\voice\voice_cache.wav";
AudioFormat audioFormat;
TargetDataLine targetDataLine;
boolean flag = true;
private void stopRecognize() {
flag = false;
targetDataLine.stop();
targetDataLine.close();
}
private AudioFormat getAudioFormat() {
float sampleRate = 16000;
// 8000,11025,16000,22050,44100
int sampleSizeInBits = 16;
// 8,16
int channels = 1;
// 1,2
boolean signed = true;
// true,false
boolean bigEndian = false;
// true,false
return new AudioFormat(sampleRate, sampleSizeInBits, channels, signed, bigEndian);
}// end getAudioFormat
private void startRecognize() {
try {
// 獲得指定的音頻格式
audioFormat = getAudioFormat();
DataLine.Info dataLineInfo = new DataLine.Info(TargetDataLine.class, audioFormat);
targetDataLine = (TargetDataLine) AudioSystem.getLine(dataLineInfo);
// Create a thread to capture the microphone
// data into an audio file and start the
// thread running. It will run until the
// Stop button is clicked. This method
// will return after starting the thread.
flag = true;
new CaptureThread().start();
} catch (Exception e) {
e.printStackTrace();
} // end catch
}// end captureAudio method
class CaptureThread extends Thread {
public void run() {
AudioFileFormat.Type fileType = null;
File audioFile = new File(filePath);
fileType = AudioFileFormat.Type.WAVE;
//聲音錄入的權(quán)值
int weight = 2;
//判斷是否停止的計數(shù)
int downSum = 0;
ByteArrayInputStream bais = null;
ByteArrayOutputStream baos = new ByteArrayOutputStream();
AudioInputStream ais = null;
try {
targetDataLine.open(audioFormat);
targetDataLine.start();
byte[] fragment = new byte[1024];
ais = new AudioInputStream(targetDataLine);
while (flag) {
targetDataLine.read(fragment, 0, fragment.length);
//當(dāng)數(shù)組末位大于weight時開始存儲字節(jié)(有聲音傳入),一旦開始不再需要判斷末位
if (Math.abs(fragment[fragment.length-1]) > weight || baos.size() > 0) {
baos.write(fragment);
System.out.println("守衛(wèi):"+fragment[0]+",末尾:"+fragment[fragment.length-1]+",lenght"+fragment.length);
//判斷語音是否停止
if(Math.abs(fragment[fragment.length-1])<=weight){
downSum++;
}else{
System.out.println("重置奇數(shù)");
downSum=0;
}
//計數(shù)超過20說明此段時間沒有聲音傳入(值也可更改)
if(downSum>20){
System.out.println("停止錄入");
break;
}
}
}
//取得錄音輸入流
audioFormat = getAudioFormat();
byte audioData[] = baos.toByteArray();
bais = new ByteArrayInputStream(audioData);
ais = new AudioInputStream(bais, audioFormat, audioData.length / audioFormat.getFrameSize());
//定義最終保存的文件名
System.out.println("開始生成語音文件");
AudioSystem.write(ais, AudioFileFormat.Type.WAVE, audioFile);
downSum = 0;
stopRecognize();
} catch (Exception e) {
e.printStackTrace();
} finally {
//關(guān)閉流
try {
ais.close();
bais.close();
baos.reset();
} catch (IOException e) {
e.printStackTrace();
}
}
}// end run
}// end inner class CaptureThread
關(guān)于“Java如何調(diào)用系統(tǒng)揚聲器”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識,可以關(guān)注億速云行業(yè)資訊頻道,小編每天都會為大家更新不同的知識點。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。