close

翻譯社
對此Google台灣董事總司理簡立峰提到,翻譯跟中文指令、對話,是兩個不同的議題。跟已經深植過Office簡繁轉換的MS比起來,差別很明明

用「多元語言」加速導入其他說話的時候____________________
來比對一下好了日翻...(恕刪)
原文:

再來英翻中
可是在潤色方面,Google這邊選成繁中還泛起了簡中用語(軟件、在線等等字詞)
目前Google翻譯支援103種說話,每天進行超過10億次的翻譯(台灣是Google翻譯使用者數成長最快的市場),Google透過網路上億萬筆人工翻譯文件,建構了大量的翻譯模型來練習翻譯系統。
2016年9月更進一步導入神經機器翻譯手藝,讓Google翻譯學不再是逐字逐詞翻譯,而是會辨識句子裡的結構,參考上下文做一整句、一整段的翻譯,最後翻譯出一段更接近平常會話,文法跟語句也更自然的成果,特別是堅苦度更高的中英互翻已100%導入神經機械翻譯系統。




Google翻譯中文練習資料庫是統一個,簡中繁中共用資料庫(因為文法是一樣的,假如分成兩個資料庫,不如合在一路資料量大),所以會出現簡頂用語。

Google翻譯
以下內容憑據原作小說、廣播劇、動畫等內容記錄,請留意有可能會產生劇透的環境。
翻譯是把一種說話翻譯成另一種,在搜索出的翻譯結果裡,可能有很多多少好多種組合,Google翻議會選擇最好的阿誰當作成效,這比較像是統計、選擇翻譯
有求必應翻的比較好...(恕刪)

台灣有把人工聰明IC化的優勢

____________________
Nanako0625 wrote:

Bing翻譯

Google翻譯的下一步

____________________
不外將口語辨識成准確的句子,以及將文字翻譯成另外一種語言,是兩套分歧的模型,語音辨識需要辨別口音、噪音、速度...等因素,提取辨識成文字,這又是另外一套複雜的訓練模子了,在Google裡,語音辨識有另外一個獨立的團隊,Google翻譯也會和語音團隊合作,將兩套模子運用在白話翻譯上,且做到好的翻譯品質。






英翻中其實二者差不多
笨冰 wrote:

導入神經機械後,整句翻譯品質更接近人工翻譯

____________________
客歲Alpha機械人擊敗圍棋冠軍的新聞大家應當還記憶猶新,透過這場競賽,機器學習、深度進修、神經網路這些看似艱深的名詞,進入了一般讀者的腦袋裡,人人可能不是很瞭解他們的原理,但華頓翻譯社們天天已經都在利用這些手藝了翻譯

https://en.wikipedia.org/wiki/Apple_Inc.


可是到了最後面,Google翻譯很明顯比Bing差了一大截,念起來非常不順
在Google翻譯裡,有英翻韓、英翻西、西翻英及法翻英四種語言,需要自力練習出模子,在不改變底層架構的條件下,Google將這些模型合併成一個單一的多元說話模子,這簡化了過去需要建構很多分歧翻譯模子的可觀本錢,讓Google翻譯可以更輕易的擴展到更多說話。

或許我們在Google上常常在用中文語音輸入、搜索,也覺得它辨識得很準了,為什麼Google Assistant還沒法使用中文指令呢?

本來估計用三年的時候將神經機器導入各說話,目前已進度超前,在今年4月就完成個中26組語言。儘管導入的進度超前,但要把103種語言掃數導入機械進修、神經網路系統,還是一項複雜的工作,緣由在於模子不是天然生成的,而是要訓練出來的,且每一個模子需要8個Google處置器、破費2-3週時候來做運算、練習,且每個模型需要超過1億筆練習案例,是以相當費時,也因而可知,越缺少資料的語言,越難以機械進修來練習,提高翻譯品質。


並且要讓機械理解口語,也需要透過更多更多該說話的對話資料庫來做訓練,這又牽扯到白話的、對話的資料庫夠不夠的問題了,要練習機器理解其他說話的對話,並不是輕易的事情
翻譯
取自維基百科(英文)中的蘋果公司頁面的第一段介紹


比來用Google英翻中整句時,確實感覺到其進步,看到句字的通順水平有嚇一跳
來比對一下好了

Google今天出格針對機械進修、神經網路若何提高翻譯品質做了一些申明,我們利用的每次翻譯,其實都有人工聰明在操刀。

兩者翻譯都有達到意思表達的效果
此外Google還成長出一套「Zero-Shot」的手藝,讓兩種說話經過練習後可以共用資料,自動進修,如許也能夠填補某些說話資料量不足的問題,譬喻進行練習好英日、韓英的模子後,就能夠完成英日/日英、英韓/韓英互翻,乃至韓日/ 日韓互翻。藉由Zero-Shot翻譯,只需要一套系統就可以完成更多說話互翻。
另外,誤植字提示:

Google未來每季也會以一個主題,來介紹機器進修的應用Google台灣董事總司理簡立峰提到,現在固然良多產業在講AI First,但人工智慧成長已經好久了,只是這幾年來發展得很是快,這波人工聰明的熱潮,對台灣產業來講是一個很好的機會,曩昔台灣擅長做硬體,也有很強的設計IC能力,在人工聰明時代,良多辨識軟體都可以IC化,比如影象文字辨識IC、電腦視覺IC、指紋辨識IC、聲音辨識IC...等,在其他國家,要開辟這些也許不太輕易,但台灣有完全的供給鏈,有先輩製程、也有人材,相對其他國家,台灣要把人工聰明IC化會輕易很多,不過目前看來硬體跟人工智慧軟體兩股氣力仿佛還沒有很好的連系,這多是全部產業需要把握跟關注的標的目的翻譯




另外白話即時翻譯,相信也是很多人需要的一項功能。

練習時,就會插手良多髒污、反光或扭曲...等實際糊口中會碰到的例子,當做素材,練習機械的演算法,提高辨識準確性,不但能知道哪些是字,而且辨認出是什麼字,才能進一步翻譯。Google翻會選擇最好的阿誰看成結果




另外大家在國外旅遊時,應當也用過「即時鏡頭翻譯」這功能,也是將神經網路應用在翻譯的一個例子。Bing翻譯


為此Google成長出一套名為「多元說話」的方案來加速練習的速度。但這一兩年,Google翻譯的品質跟天然度,有很大的提拔,這都歸功於把機器進修導入Google翻譯的關係翻譯

看來Google的簡繁轉換引擎還有很大的進步空間




、名字跟品牌的翻譯準確度,首要工作還是在增強翻譯的品質,使它更接近人工翻譯,並將神經機器系統導入更多說話。

有求必應翻的比力好

av98us wrote:
但Google Assistant這類牽扯到「理解」一種語言,統一個指令,會有良多種講法,並且在人的白話裡,常會把主詞省略掉,對話的人身在情境裡,很清晰省略的主詞指的是什麼,但機械不知道,特別越簡短,省略越多的器材對電腦來講越難理解,並非能把白話辨識成文字,其實不代表機械曉得對話,可以理解對話翻譯




Google翻譯



其意思或許是

且以難度較高的中翻英為例,神經機械翻譯可以比以往更接近人工翻譯的品質了翻譯
按照Google暗示,導入神經機械翻譯後,誤差下降了55~85%以上,透過運算,在兩個月內將10秒翻譯一句話的速度,晉升到0.2秒就能夠完成。

Google也提到,Google翻譯的下一步要增強數字跟日期翻譯,並增強簡短詞、罕有字串
「辨識」是影響鏡頭翻譯成功率的主要關頭,鏡頭怎麼知道這個畫面是什麼字?若何在髒污或反光中還能抓出哪些痕跡是文字,哪些不是?靠的就是強化字體辨識的練習,
採訪辛勞了,感謝供給好文領會科技的進展
下記に、アニメの放映ごとに項を分けて、原作小説ごとにストーリーを記述する翻譯なお、内容については、原作小説に準拠するため、アニメのストーリーと違いがある場所があるため、注重すること翻譯

透過鏡頭拍攝文字時,Google翻譯就會用深度進修技術,辨識出文字,接著就在字典尋覓翻譯的結果,而且即時轉換,顯示出來。日翻中
記得在兩三年前,網路上還會有一些關於Google僵硬翻譯的笑話,那時我們可能也不太寄望他的整段、整句翻譯,只把Google翻譯當字典用。


文章來自: https://www.mobile01.com/topicdetail.php?f=359&t=5139181有關翻譯的問題歡迎諮詢華頓翻譯社
arrow
arrow
    創作者介紹
    創作者 joannm5l3688 的頭像
    joannm5l3688

    joannm5l3688@outlook.com

    joannm5l3688 發表在 痞客邦 留言(0) 人氣()