臺(tái)灣人工智能學(xué)校正式開學(xué)了!密集技術(shù)領(lǐng)域培訓(xùn)班的學(xué)員,以來自電子業(yè)及制造業(yè)、信息業(yè)、金融業(yè)和生技醫(yī)療4大產(chǎn)業(yè)占大多數(shù) 臺(tái)灣人工智能學(xué)校正式開學(xué)了!密集技術(shù)領(lǐng)域培訓(xùn)班的學(xué)員,以來自電子業(yè)及制造業(yè)、信息業(yè)、金融業(yè)和生技醫(yī)療4大產(chǎn)業(yè)占大多數(shù);臺(tái)灣人工智能實(shí)驗(yàn)室,近日推出記者快抄預(yù)覽版第一版,透過AI技術(shù)將PTT版上的熱門文章,重新撰寫為新聞,每天可以從PTT熱門文章中,自動(dòng)產(chǎn)出大約500篇文章 臺(tái)灣人工智能學(xué)校開學(xué)了!4大產(chǎn)業(yè)的員工最想成為AI人才 據(jù)羿戓信息所了解,臺(tái)灣人工智能學(xué)校近日正式開學(xué)了,第一期共有530名種子學(xué)員,課程以三個(gè)月為期,分為技術(shù)領(lǐng)域培訓(xùn)班和經(jīng)理人周末研訓(xùn)班,其中,入選12周密集技術(shù)領(lǐng)域培訓(xùn)班的學(xué)員中,來自電子業(yè)及制造業(yè)、信息業(yè)、金融業(yè)和生技醫(yī)療4大產(chǎn)業(yè)占大多數(shù),也顯示了這4大產(chǎn)業(yè)的員工紛紛想成為AI人才。 臺(tái)灣人工智能學(xué)校目前暫時(shí)以中研院跨領(lǐng)域研究大樓7樓作為臺(tái)北校地,未來還會(huì)在臺(tái)北市和新北市找尋校地,也可能會(huì)在其他縣市建立分校。技術(shù)領(lǐng)域培訓(xùn)班和經(jīng)理人周末研訓(xùn)班除了上課的時(shí)間不同之外,課程的目的也不一樣,技術(shù)領(lǐng)域培訓(xùn)班主要是要培訓(xùn)開發(fā)AI應(yīng)用的工程師,而經(jīng)理人周末研訓(xùn)班學(xué)員是各產(chǎn)業(yè)中高階的經(jīng)理人,主要是培養(yǎng)經(jīng)理人對(duì)AI技術(shù)和相關(guān)的應(yīng)用的宏觀,得以讓企業(yè)透過AI技術(shù)轉(zhuǎn)型時(shí),能夠有更明確的方向和方法。 媒體業(yè) 鍵盤記者小心!PTT大神團(tuán)隊(duì)打造臺(tái)版AI記者,一天自動(dòng)寫出500篇熱門鄉(xiāng)民新聞 鍵盤記者恐怕面臨危機(jī),PTT創(chuàng)辦人杜奕瑾領(lǐng)軍的臺(tái)灣人工智能實(shí)驗(yàn)室,近日推出記者快抄預(yù)覽版第一版,記者快抄是透過AI技術(shù)將PTT版上的熱門文章,重新撰寫為新聞,目前記者快抄每天可以從PTT熱門文章中,自動(dòng)產(chǎn)出大約500篇文章,還能透過文章內(nèi)容找新聞配圖,臺(tái)灣人工智能實(shí)驗(yàn)室也將記者快抄的成果于GitHub上開源釋出,包含網(wǎng)頁生成、前端與UI、爬蟲、AI算法與文章生成。 記者快抄每30分鐘從PTT上擷取重要的文章,將文章拆解成句子,透過自然語言處理技術(shù)和深度學(xué)習(xí)算法,撰寫成新聞,此外,AI記者還會(huì)收集每一篇文章的所有的回復(fù),包含「推」和「噓」的回復(fù),來了解大眾對(duì)于該篇貼文的反應(yīng)。此外,臺(tái)灣人工智能實(shí)驗(yàn)室訓(xùn)練了圖片搜索引擎的RNN模型,這個(gè)模型會(huì)比對(duì)文章和圖片描述的文字相似度,來擷取與文章內(nèi)容較相近的圖片,作為新聞圖片,AI記者不但可以用原文的圖片,還能自行搜尋相關(guān)的新聞圖片。 圖片來源:臺(tái)灣人工智能實(shí)驗(yàn)室 圖像標(biāo)示 遷移學(xué)習(xí) 機(jī)器學(xué)習(xí)應(yīng)用大爆發(fā)的重裝武器出爐!Google新AutoML服務(wù)登場(chǎng),不懂ML也能自制企業(yè)級(jí)AI應(yīng)用 Google近日于GCP發(fā)布新的機(jī)器學(xué)習(xí)服務(wù)AutoML,透過遷移學(xué)習(xí)將已訓(xùn)練完成的模型,轉(zhuǎn)移到新的模型訓(xùn)練過程,能夠用較少量的數(shù)據(jù),訓(xùn)練出機(jī)器學(xué)習(xí)模型,此外,Google還透過learning2learn功能自動(dòng)挑選適合的模型,搭配超參數(shù)調(diào)整技術(shù)自動(dòng)調(diào)整參數(shù),讓企業(yè)只要將原始數(shù)據(jù)輸入后,能夠建立出符合自家需求的預(yù)測(cè)模型,就算不懂機(jī)器學(xué)習(xí)技術(shù)也能自制企業(yè)級(jí)AI應(yīng)用。由于開發(fā)應(yīng)用程序不難,解決了機(jī)器學(xué)習(xí)的技術(shù)門坎后,只要有開發(fā)能力,就算不懂機(jī)器學(xué)習(xí)知識(shí),也能透過AutoML打造出一套企業(yè)級(jí)的機(jī)器學(xué)習(xí)應(yīng)用或AI應(yīng)用。AutoML服務(wù)上線后將先推出圖像自動(dòng)標(biāo)示的服務(wù)Vision,未來還會(huì)陸續(xù)推出語音、翻譯和自然語言處理等服務(wù)。 AutoML由2個(gè)神經(jīng)網(wǎng)絡(luò)組成,分別是控制器神經(jīng)網(wǎng)絡(luò)和子網(wǎng),控制器生成子模型架構(gòu),子模型架構(gòu)透過特定的任務(wù)訓(xùn)練并評(píng)估模型的質(zhì)量,產(chǎn)生的結(jié)構(gòu)將回饋給控制器,控制器將會(huì)將此結(jié)果,作為下一個(gè)循環(huán)修改的參考,AutoML即是重復(fù)執(zhí)行設(shè)計(jì)新架構(gòu)、評(píng)估、回饋、學(xué)習(xí)的循環(huán),經(jīng)過數(shù)千次的循環(huán)后,控制器能設(shè)計(jì)出最準(zhǔn)確的模型架構(gòu)。 個(gè)人語音助理 飯店業(yè) 阿里巴巴中文AI語音助理首次登臺(tái),進(jìn)駐神旺飯店展示智慧住房體驗(yàn) 阿里巴巴AI實(shí)驗(yàn)室近日和旺旺集團(tuán)旗下的神旺飯店宣布合作,讓中文智能喇叭-“天貓精靈”進(jìn)駐飯店住房,房客可透過AI語音助理控制窗簾、燈光、電視,臺(tái)北也在南京東路上的神旺商務(wù)酒店內(nèi)一間行政套房展示這項(xiàng)服務(wù),入住房客只要說中文就能播放音樂、查詢天氣外,結(jié)合Wi-Fi通訊及智能開關(guān),可聲控房間內(nèi)的落地?zé)簟㈦娨暀C(jī)開關(guān),但可惜無法聲控切換電視頻道、呼叫客房服務(wù)。 目前在全球智能喇叭市場(chǎng)上,Amazon Echo遙遙領(lǐng)先其他業(yè)者,Google Home緊追其后,微軟則透過與合作伙伴合作試圖建立生態(tài)系急起直追,但這些智能喇叭所搭載的AI語音助理都僅支持英文語音,無法支持中文,中國(guó)的百度、阿里巴巴等積極發(fā)展AI產(chǎn)品服務(wù),其中阿里巴巴推出中文智能喇叭「天貓精靈」,內(nèi)建中文AI語音助理AliGenie。 增強(qiáng)現(xiàn)實(shí) 影像辨識(shí) 臉書開源釋出自家VR-MR/' target='_blank'>AR核心辨識(shí)技術(shù),能快速辨識(shí)影片中的對(duì)象 近日臉書AI研究院開源釋出了臉書AR技術(shù)的關(guān)鍵計(jì)算機(jī)視覺技術(shù)框架,對(duì)象辨識(shí)框架Detectron,可以快速在影片或圖片中辨識(shí)出物體,對(duì)象的形狀或邊緣,方便迭加影像,該對(duì)象辨識(shí)框架是由Python撰寫而成,并用深度學(xué)習(xí)框架Caffe2 執(zhí)行,其中導(dǎo)入了多個(gè)熱門的對(duì)象辨識(shí)算法。臉書AI研究院(FAIR)表示,Detectron的目標(biāo)即是要提供對(duì)象辨識(shí)研究一個(gè)兼具質(zhì)量和效能的程序,Detectron能夠彈性地支持快速導(dǎo)入和測(cè)試新研究,目前Detectron以Apache 2.0的開源框架于GitHub上釋出。 幾天后,臉書又打造出輕量版的對(duì)象偵測(cè)和分割架構(gòu)MaskRCNN2Go,可在移動(dòng)裝置上實(shí)時(shí)且準(zhǔn)確地偵測(cè)人體的動(dòng)作,MaskRCNN2Go架構(gòu)是根據(jù)臉書自家的對(duì)象偵測(cè)和分割的架構(gòu)Mask R-CNN,經(jīng)過優(yōu)化和調(diào)整后打造出的輕量版本,這套模型現(xiàn)在還在研究階段。 自然語言處理 影像生成 AI也會(huì)作畫!微軟用GAN搭配拆解單詞模仿人類作畫行為,看文字描述就能產(chǎn)生圖像 微軟AI研究院近日發(fā)布會(huì)作畫的AI機(jī)器人(Drawing bot),作畫機(jī)器人能夠透過文字描述,產(chǎn)生出與文字對(duì)應(yīng)的圖像。微軟在作畫機(jī)器人中,加入對(duì)抗式生成網(wǎng)絡(luò),由2個(gè)機(jī)器學(xué)習(xí)的模型組成,一個(gè)生成器負(fù)責(zé)生成由文字描述畫出的圖像,另一個(gè)則是判別器,用來檢視文字描述與圖像是否相符,反復(fù)不斷訓(xùn)練,就能促使生成器產(chǎn)生最接近文字描述的圖像。 為了要模仿人類這項(xiàng)作畫的行為,研究人員創(chuàng)造了一套名為AttnGAN的神經(jīng)網(wǎng)絡(luò),借助將文字描述拆解為個(gè)別的單詞,并將這些詞與作畫的區(qū)域互相配對(duì),來實(shí)現(xiàn)模擬人類作畫的行為,也就是在訓(xùn)練AI產(chǎn)生圖像時(shí),聚焦于個(gè)別的單詞,像是類似標(biāo)題的文字描述,如此一來,相較于傳統(tǒng)的文字轉(zhuǎn)圖像方法,此方法所產(chǎn)生的圖像質(zhì)量提升了3倍。AttnGAN還能從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)人類的常識(shí),將這樣的知識(shí)萃取出來后,填補(bǔ)文字描述中缺少的圖像細(xì)節(jié)。 |