色屁屁www影院免费观看入口,欧美性猛交ⅹxxx乱大交妖精,欧美激情第5页,欧美性猛交xxxx三人,欧美一a级做爰片大开眼界

達(dá)觀動(dòng)態(tài)

達(dá)觀愿與業(yè)內(nèi)同行分享 助力各企業(yè)在大數(shù)據(jù)浪潮來臨之際一起破浪前行

當(dāng)知識(shí)圖譜“遇見”深度學(xué)習(xí)

大數(shù)據(jù)時(shí)代的到來,為人工智能的飛速發(fā)展帶來前所未有的數(shù)據(jù)紅利。在大數(shù)據(jù)的“喂養(yǎng)”下,人工智能技術(shù)獲得了前所未有的長足進(jìn)步。其進(jìn)展突出體現(xiàn)在以知識(shí)圖譜為代表的知識(shí)工程以及深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)等相關(guān)領(lǐng)域。隨著深度學(xué)習(xí)對(duì)于大數(shù)據(jù)的紅利消耗殆盡,深度學(xué)習(xí)模型效果的天花板日益迫近。另一方面大量知識(shí)圖譜不斷涌現(xiàn),這些蘊(yùn)含人類大量先驗(yàn)知識(shí)的寶庫卻尚未被深度學(xué)習(xí)有效利用。融合知識(shí)圖譜與深度學(xué)習(xí),已然成為進(jìn)一步提升深度學(xué)習(xí)模型效果的重要思路之一。以知識(shí)圖譜為代表的符號(hào)主義、以深度學(xué)習(xí)為代表的聯(lián)結(jié)主義,日益脫離原先各自獨(dú)立發(fā)展的軌道,走上協(xié)同并進(jìn)的新道路。

知識(shí)圖譜與深度學(xué)習(xí)融合的歷史背景

大數(shù)據(jù)為機(jī)器學(xué)習(xí),特別是深度學(xué)習(xí)帶來前所未有的數(shù)據(jù)紅利。得益于大規(guī)模標(biāo)注數(shù)據(jù),深度神經(jīng)網(wǎng)絡(luò)能夠習(xí)得有效的層次化特征表示,從而在圖像識(shí)別等領(lǐng)域取得優(yōu)異效果。但是隨著數(shù)據(jù)紅利消失殆盡,深度學(xué)習(xí)也日益體現(xiàn)出其局限性,尤其體現(xiàn)在依賴大規(guī)模標(biāo)注數(shù)據(jù)和難以有效利用先驗(yàn)知識(shí)等方面。這些局限性阻礙了深度學(xué)習(xí)的進(jìn)一步發(fā)展。另一方面在深度學(xué)習(xí)的大量實(shí)踐中,人們?cè)絹碓蕉嗟匕l(fā)現(xiàn)深度學(xué)習(xí)模型的結(jié)果往往與人的先驗(yàn)知識(shí)或者專家知識(shí)相沖突。如何讓深度學(xué)習(xí)擺脫對(duì)于大規(guī)模樣本的依賴?如何讓深度學(xué)習(xí)模型有效利用大量存在的先驗(yàn)知識(shí)?如何讓深度學(xué)習(xí)模型的結(jié)果與先驗(yàn)知識(shí)一致已成為了當(dāng)前深度學(xué)習(xí)領(lǐng)域的重要問題。

當(dāng)前,人類社會(huì)業(yè)已積累大量知識(shí)。特別是近幾年在知識(shí)圖譜技術(shù)的推動(dòng)下,對(duì)于機(jī)器友好的各類在線知識(shí)圖譜大量涌現(xiàn)。知識(shí)圖譜本質(zhì)上是一種語義網(wǎng)絡(luò),表達(dá)了各類實(shí)體、概念及其之間的語義關(guān)系。相對(duì)于傳統(tǒng)知識(shí)表示形式(諸如本體、傳統(tǒng)語義網(wǎng)絡(luò)),知識(shí)圖譜具有實(shí)體/概念覆蓋率高、語義關(guān)系多樣、結(jié)構(gòu)友好(通常表示為RDF格式)以及質(zhì)量較高等優(yōu)勢,從而使得知識(shí)圖譜日益成為大數(shù)據(jù)時(shí)代和人工智能時(shí)代最為主要的知識(shí)表示方式。能否利用蘊(yùn)含于知識(shí)圖譜中的知識(shí)指導(dǎo)深度神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)從而提升模型的性能,成為了深度學(xué)習(xí)模型研究的重要問題之一。

現(xiàn)階段將深度學(xué)習(xí)技術(shù)應(yīng)用于知識(shí)圖譜的方法較為直接。大量的深度學(xué)習(xí)模型可以有效完成端到端的實(shí)體識(shí)別、關(guān)系抽取和關(guān)系補(bǔ)全等任務(wù),進(jìn)而可以用來構(gòu)建或豐富知識(shí)圖譜。本文主要探討知識(shí)圖譜在深度學(xué)習(xí)模型中的應(yīng)用。

從當(dāng)前的文獻(xiàn)來看,主要有兩種方式:

一是將知識(shí)圖譜中的語義信息輸入到深度學(xué)習(xí)模型中;將離散化知識(shí)圖譜表達(dá)為連續(xù)化的向量,從而使得知識(shí)圖譜的先驗(yàn)知識(shí)能夠成為深度學(xué)習(xí)的輸入。

二是利用知識(shí)作為優(yōu)化目標(biāo)的約束,指導(dǎo)深度學(xué)習(xí)模型的學(xué)習(xí);通常是將知識(shí)圖譜中知識(shí)表達(dá)為優(yōu)化目標(biāo)的后驗(yàn)正則項(xiàng)。前者的研究工作已有不少文獻(xiàn),并成為當(dāng)前研究熱點(diǎn)。知識(shí)圖譜向量表示作為重要的特征在問答以及推薦等實(shí)際任務(wù)中得到有效應(yīng)用。后者的研究才剛剛起步,本文將重點(diǎn)介紹以一階謂詞邏輯作為約束的深度學(xué)習(xí)模型。

知識(shí)圖譜作為深度學(xué)習(xí)的輸入

知識(shí)圖譜是人工智能符號(hào)主義近期進(jìn)展的典型代表。知識(shí)圖譜中的實(shí)體、概念以及關(guān)系均采用了離散的、顯式的符號(hào)化表示。而這些離散的符號(hào)化表示難以直接應(yīng)用于基于連續(xù)數(shù)值表示的神經(jīng)網(wǎng)絡(luò)。為了讓神經(jīng)網(wǎng)絡(luò)有效利用知識(shí)圖譜中的符號(hào)化知識(shí),研究人員提出了大量的知識(shí)圖譜的表示學(xué)習(xí)方法。

知識(shí)圖譜的表示學(xué)習(xí)旨在習(xí)得知識(shí)圖譜的組成元素(節(jié)點(diǎn)與邊)的實(shí)值向量化表示。這些連續(xù)的向量化表示可以作為神經(jīng)網(wǎng)絡(luò)的輸入,從而使得神經(jīng)網(wǎng)絡(luò)模型能夠充分利用知識(shí)圖譜中大量存在的先驗(yàn)知識(shí)。這一趨勢催生了對(duì)于知識(shí)圖譜的表示學(xué)習(xí)的大量研究。本章首先簡要回顧知識(shí)圖譜的表示學(xué)習(xí),再進(jìn)一步介紹這些向量表示如何應(yīng)用到基于深度學(xué)習(xí)模型的各類實(shí)際任務(wù)中,特別是問答與推薦等實(shí)際應(yīng)用。

1. 知識(shí)圖譜的表示學(xué)習(xí)

知識(shí)圖譜的表示學(xué)習(xí)旨在學(xué)習(xí)實(shí)體和關(guān)系的向量化表示,其關(guān)鍵是合理定義知識(shí)圖譜中關(guān)于事實(shí)(三元組<h,r,t>)的損失函數(shù) ?r(h,t),其中和是三元組的兩個(gè)實(shí)體h和t的向量化表示。通常情況下,當(dāng)事實(shí) <h,r,t> 成立時(shí),期望最小化 ?r(h,t)??紤]整個(gè)知識(shí)圖譜的事實(shí),則可通過最小化 ∑(h,r,t)∈O?r(h,t)?來學(xué)習(xí)實(shí)體以及關(guān)系的向量化表示,其中 O 表示知識(shí)圖譜中所有事實(shí)的集合。不同的表示學(xué)習(xí)可以使用不同的原則和方法定義相應(yīng)的損失函數(shù)。這里以基于距離和翻譯的模型介紹知識(shí)圖譜表示的基本思路[1]。

基于距離的模型。其代表性工作是 SE 模型[2]?;舅枷胧钱?dāng)兩個(gè)實(shí)體屬于同一個(gè)三元組 <h,r,t> 時(shí),它們的向量表示在投影后的空間中也應(yīng)該彼此靠近。因此,損失函數(shù)定義為向量投影后的距離??r(h,t)=‖Wr,1h-Wr,2t‖l1,其中矩陣 Wr,1 和 Wr,2?用于三元組中頭實(shí)體 h?和尾實(shí)體?t?的投影操作。但由于 SE 引入了兩個(gè)單獨(dú)的投影矩陣,導(dǎo)致很難捕獲實(shí)體和關(guān)系之間的語義相關(guān)性。Socher?等人針對(duì)這一問題采用三階張量替代傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中的線性變換層來刻畫評(píng)分函數(shù)。Bordes?等人提出能量匹配模型,通過引入多個(gè)矩陣的 Hadamard 乘積來捕獲實(shí)體向量和關(guān)系向量的交互關(guān)系。

基于翻譯的表示學(xué)習(xí)。其代表性工作 TransE 模型通過向量空間的向量翻譯來刻畫實(shí)體與關(guān)系之間的相關(guān)性[3]。該模型假定,若?<h,r,t>?成立則尾部實(shí)體 t 的嵌入表示應(yīng)該接近頭部實(shí)體 h 加上關(guān)系向量 r 的嵌入表示,即 h+r≈t。因此,TransE 采用??r(h,t)=‖h+r-t‖l1/l2?作為評(píng)分函數(shù)。當(dāng)三元組成立時(shí),得分較低,反之得分較高。TransE 在處理簡單的 1-1 關(guān)系(即關(guān)系兩端連接的實(shí)體數(shù)比率為 1:1)時(shí)是非常有效的,但在處理 N-1、1-N 以及 N-N 的復(fù)雜關(guān)系時(shí)性能則顯著降低。針對(duì)這些復(fù)雜關(guān)系,Wang 提出了 TransH 模型通過將實(shí)體投影到關(guān)系所在超平面,從而習(xí)得實(shí)體在不同關(guān)系下的不同表示。Lin 提出了 TransR 模型通過投影矩陣將實(shí)體投影到關(guān)系子空間,從而習(xí)得不同關(guān)系下的不同實(shí)體表示。

除了上述兩類典型知識(shí)圖譜表示學(xué)習(xí)模型之外,還有大量的其他表示學(xué)習(xí)模型。比如,Sutskever 等人使用張量因式分解貝葉斯聚類來學(xué)習(xí)關(guān)系結(jié)構(gòu)。Ranzato 等人引入了一個(gè)三路的限制玻爾茲曼機(jī)來學(xué)習(xí)知識(shí)圖譜的向量化表示,并通過一個(gè)張量加以參數(shù)化。

當(dāng)前主流的知識(shí)圖譜表示學(xué)習(xí)方法仍存在各種各樣的問題,比如不能較好刻畫實(shí)體與關(guān)系之間的語義相關(guān)性、無法較好處理復(fù)雜關(guān)系的表示學(xué)習(xí)、模型由于引入大量參數(shù)導(dǎo)致過于復(fù)雜,以及計(jì)算效率較低難以擴(kuò)展到大規(guī)模知識(shí)圖譜上等等。為了更好地為機(jī)器學(xué)習(xí)或深度學(xué)習(xí)提供先驗(yàn)知識(shí),知識(shí)圖譜的表示學(xué)習(xí)仍是一項(xiàng)任重道遠(yuǎn)的研究課題。

2. 知識(shí)圖譜向量化表示的應(yīng)用

應(yīng)用 1 問答系統(tǒng)。自然語言問答是人機(jī)交互的重要形式。深度學(xué)習(xí)使得基于問答語料的生成式問答成為可能。然而目前大多數(shù)深度問答模型仍然難以利用大量的知識(shí)實(shí)現(xiàn)準(zhǔn)確回答。Yin 等人針對(duì)簡單事實(shí)類問題,提出了一種基于 encoder-decoder 框架,能夠充分利用知識(shí)圖譜中知識(shí)的深度學(xué)習(xí)問答模型[4]。

在深度神經(jīng)網(wǎng)絡(luò)中,一個(gè)問題的語義往往被表示為一個(gè)向量。具有相似向量的問題被認(rèn)為是具有相似語義。這是聯(lián)結(jié)主義的典型方式。另一方面,知識(shí)圖譜的知識(shí)表示是離散的,即知識(shí)與知識(shí)之間并沒有一個(gè)漸變的關(guān)系。這是符號(hào)主義的典型方式。通過將知識(shí)圖譜向量化,可以將問題與三元組進(jìn)行匹配(也即計(jì)算其向量相似度),從而為某個(gè)特定問題找到來自知識(shí)庫的最佳三元組匹配。匹配過程如圖 1 所示。對(duì)于問題 Q:“How tallis Yao Ming?”,首先將問題中的單詞表示為向量數(shù)組 HQ。進(jìn)一步尋找能與之匹配的知識(shí)圖譜中的候選三元組。最后為這些候選三元組,分別計(jì)算問題與不同屬性的語義相似度。

其由以下相似度公式?jīng)Q定:

1

這里 S ?(Q,τ) 表示問題與候選三元組 τ 的相似度;XQ?表示問題的向量(從 HQ?計(jì)算而得),Uτ?表示知識(shí)圖譜的三元組的向量,M?是待學(xué)習(xí)參數(shù)。

2

▲ 圖1:基于知識(shí)圖譜的神經(jīng)生成問答模型

應(yīng)用 2 推薦系統(tǒng)。個(gè)性化推薦系統(tǒng)是互聯(lián)網(wǎng)各大社交媒體和電商網(wǎng)站的重要智能服務(wù)之一。隨著知識(shí)圖譜的應(yīng)用日益廣泛,大量研究工作意識(shí)到知識(shí)圖譜中的知識(shí)可以用來完善基于內(nèi)容的推薦系統(tǒng)中對(duì)用戶和項(xiàng)目的內(nèi)容(特征)描述,從而提升推薦效果。另一方面,基于深度學(xué)習(xí)的推薦算法在推薦效果上日益優(yōu)于基于協(xié)同過濾的傳統(tǒng)推薦模型[5]。但是,將知識(shí)圖譜集成到深度學(xué)習(xí)的框架中的個(gè)性化推薦的研究工作,還較為少見。Zhang?等人做出了這樣的嘗試。

作者充分利用了結(jié)構(gòu)化知識(shí)(知識(shí)圖譜)、文本知識(shí)和可視化知識(shí)(圖片)[6]等三類典型知識(shí)。作者分別通過網(wǎng)絡(luò)嵌入(network embedding)獲得結(jié)構(gòu)化知識(shí)的向量化表示,然后分別用SDAE(Stacked Denoising Auto-Encoder)和層疊卷積自編碼器(stackedconvolution-autoencoder)抽取文本知識(shí)特征和圖片知識(shí)特征;并最終將三類特征融合進(jìn)協(xié)同集成學(xué)習(xí)框架,利用三類知識(shí)特征的整合來實(shí)現(xiàn)個(gè)性化推薦。作者針對(duì)電影和圖書數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),證明了這種融合深度學(xué)習(xí)和知識(shí)圖譜的推薦算法具有較好性能。

知識(shí)圖譜作為深度學(xué)習(xí)的約束

Hu 等人提出了一種將一階謂詞邏輯融合進(jìn)深度神經(jīng)網(wǎng)絡(luò)的模型,并將其成功用于解決情感分類和命名實(shí)體識(shí)別等問題[7]。邏輯規(guī)則是一種對(duì)高階認(rèn)知和結(jié)構(gòu)化知識(shí)的靈活表示形式,也是一種典型的知識(shí)表示形式。將各類人們已積累的邏輯規(guī)則引入到深度神經(jīng)網(wǎng)絡(luò)中,利用人類意圖和領(lǐng)域知識(shí)對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行引導(dǎo)具有十分重要的意義。其他一些研究工作則嘗試將邏輯規(guī)則引入到概率圖模型,這類工作的代表是馬爾科夫邏輯網(wǎng)絡(luò)[8],但是鮮有工作能將邏輯規(guī)則引入到深度神經(jīng)網(wǎng)絡(luò)中。

Hu?等人所提出的方案框架可以概括為“teacher-student network”,如圖 2 所示,包括兩個(gè)部分 teacher network q(y|x)?和 student network pθ(y|x)。其中 teacher network 負(fù)責(zé)將邏輯規(guī)則所代表的知識(shí)建模,student network 利用反向傳播方法加上teacher network的約束,實(shí)現(xiàn)對(duì)邏輯規(guī)則的學(xué)習(xí)。這個(gè)框架能夠?yàn)榇蟛糠忠陨疃壬窠?jīng)網(wǎng)絡(luò)為模型的任務(wù)引入邏輯規(guī)則,包括情感分析、命名實(shí)體識(shí)別等。通過引入邏輯規(guī)則,在深度神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)上實(shí)現(xiàn)效果提升。

3

▲?圖2:將邏輯規(guī)則引入到深度神經(jīng)網(wǎng)絡(luò)的“teacher-student network”模型

其學(xué)習(xí)過程主要包括如下步驟:

1)利用 softlogic 將邏輯規(guī)則表達(dá)為 [0, 1] 之間的連續(xù)數(shù)值。

2)基于后驗(yàn)正則化(posterior regularization)方法,利用邏輯規(guī)則對(duì) teacher network 進(jìn)行限制,同時(shí)保證 teacher network 和 student network 盡量接近。最終優(yōu)化函數(shù)為:

4

其中,ξl,gl?是松弛變量,L?是規(guī)則個(gè)數(shù),Gl?是第?l?個(gè)規(guī)則的 grounding 數(shù)。KL 函數(shù)(Kullback-Leibler Divergence)部分保證 teacher network 和student network 習(xí)得模型盡可能一致。后面的正則項(xiàng)表達(dá)了來自邏輯規(guī)則的約束。

3)對(duì) student network 進(jìn)行訓(xùn)練,保證 teacher network 的預(yù)測結(jié)果和 student network 的預(yù)測結(jié)果都盡量地好,優(yōu)化函數(shù)如下:

5

其中,t 是訓(xùn)練輪次,l 是不同任務(wù)中的損失函數(shù)(如在分類問題中,l 是交叉熵),σθ 是預(yù)測函數(shù),s_n^((t)) 是 teacher network 的預(yù)測結(jié)果。

4)重復(fù) 1~3 過程直到收斂。

結(jié)束語

隨著深度學(xué)習(xí)研究的進(jìn)一步深入,如何有效利用大量存在的先驗(yàn)知識(shí),進(jìn)而降低模型對(duì)于大規(guī)模標(biāo)注樣本的依賴,逐漸成為主流的研究方向之一。知識(shí)圖譜的表示學(xué)習(xí)為這一方向的探索奠定了必要的基礎(chǔ)。近期出現(xiàn)的將知識(shí)融合進(jìn)深度神經(jīng)網(wǎng)絡(luò)模型的一些開創(chuàng)性工作也頗具啟發(fā)性。但總體而言,當(dāng)前的深度學(xué)習(xí)模型使用先驗(yàn)知識(shí)的手段仍然十分有限,學(xué)術(shù)界在這一方向的探索上仍然面臨巨大的挑戰(zhàn)。這些挑戰(zhàn)主要體現(xiàn)在兩個(gè)方面:

1)如何獲取各類知識(shí)的高質(zhì)量連續(xù)化表示。當(dāng)前知識(shí)圖譜的表示學(xué)習(xí),不管是基于怎樣的學(xué)習(xí)原則,都不可避免地產(chǎn)生語義損失。符號(hào)化的知識(shí)一旦向量化后,大量的語義信息被丟棄,只能表達(dá)十分模糊的語義相似關(guān)系。如何為知識(shí)圖譜習(xí)得高質(zhì)量的連續(xù)化表示仍然是個(gè)開放問題。

2)如何在深度學(xué)習(xí)模型中融合常識(shí)知識(shí)。大量的實(shí)際任務(wù)(諸如對(duì)話、問答、閱讀理解等等)需要機(jī)器理解常識(shí)。常識(shí)知識(shí)的稀缺嚴(yán)重阻礙了通用人工智能的發(fā)展。如何將常識(shí)引入到深度學(xué)習(xí)模型將是未來人工智能研究領(lǐng)域的重大挑戰(zhàn),同時(shí)也是重大機(jī)遇。

參考文獻(xiàn)

[1] ?劉知遠(yuǎn), 孫茂松, 林衍凱, 等. 知識(shí)表示學(xué)習(xí)研究進(jìn)展[J]. 計(jì)算機(jī)研究與發(fā)展, 2016, 53(2):247-261.

[2] ?Bordes A, Weston J, Collobert R, et al. Learning Structured Embeddings of KnowledgeBases[C]// AAAI Conference on Artificial Intelligence, AAAI 2011, SanFrancisco, California, Usa, August. DBLP, 2011.

[3] ?Bordes A, Usunier N, Garcia-Duran A, et al. Translating Embeddings for ModelingMulti-relational Data[J]. Advances in Neural Information Processing Systems,2013:2787-2795.

[4] ?Jun Yin, Xin Jiang, Zhengdong Lu,Lifeng Shang, Hang Li, Xiaoming Li, NeuralGenerative Question Answering. IJCAI2016.

[5] ?Giovanni Semeraro , Pasquale Lops , Pierpaolo Basile, Knowledge infusion intocontent-based recommender systems: ACM Conference on Recommender Systems, 2009.

[6] ?Fuzheng Zhang, Nicholas Jing Yuan, Defu Lian, Xing Xie, Wei-Ying Ma, Collaborative Knowledge Base Embedding for Recommender Systems, in Proc. of KDD, 2016.

[7] ?Hu, Z., Ma, X., Liu, Z., Hovy, E., & Xing, E. (2016). Harnessing deep neural networks with logic rules. arXiv preprint arXiv:1603.06318.

[8] ?Matthew Richardson and Pedro Domingos. 2006. Markov logic networks. Machine learning,62(1-2):107–136.