那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌:半監(jiān)督學(xué)習(xí)其實(shí)正在悄然的進(jìn)化

DPVg_AI_era ? 來源:lq ? 2019-05-25 09:58 ? 次閱讀

谷歌首席科學(xué)家提出要想讓半監(jiān)督學(xué)習(xí)實(shí)際上有用,要同時(shí)考慮低維數(shù)據(jù)和高維數(shù)據(jù),并討論了谷歌最近的兩個(gè)研究。作者認(rèn)為在實(shí)際環(huán)境中重新審視半監(jiān)督學(xué)習(xí)的價(jià)值是一個(gè)激動(dòng)人心的時(shí)刻。

作為一個(gè)機(jī)器學(xué)習(xí)工程師,可能平時(shí)最常打交道的就是海量數(shù)據(jù)了。這些數(shù)據(jù)只有少部分是有標(biāo)注的,可以用來進(jìn)行監(jiān)督學(xué)習(xí)。但另外一大部分的數(shù)據(jù)是沒有標(biāo)注過的。

那么接下來,我們就會順理成章的想到用這些已標(biāo)注過的數(shù)據(jù)進(jìn)行訓(xùn)練,再利用訓(xùn)練好的學(xué)習(xí)器找出未標(biāo)注數(shù)據(jù)中,對性能改善最大的數(shù)據(jù),讓機(jī)器自己的對未標(biāo)注數(shù)據(jù)進(jìn)行分析來提高泛化性能,

這種介于監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)之間的方式,稱為半監(jiān)督學(xué)習(xí)。人類的學(xué)習(xí)方法是半監(jiān)督學(xué)習(xí),我們能從大量的未標(biāo)注數(shù)據(jù)和極少量的標(biāo)注數(shù)據(jù)學(xué)習(xí),迅速理解這個(gè)世界。

然而半監(jiān)督學(xué)習(xí)實(shí)踐中根本沒用?

人類的半監(jiān)督學(xué)習(xí)非常有效,那么我們自然的希望機(jī)器的半監(jiān)督學(xué)習(xí)也能達(dá)到類似的程度。但是從歷史上來看,半監(jiān)督學(xué)習(xí)的效果和我們想象的效果有很大差距。先來看一張圖:

上圖可以看出來,最開始的時(shí)候,半監(jiān)督學(xué)習(xí)訓(xùn)練確實(shí)有種提升監(jiān)督學(xué)習(xí)效果的趨勢,然而實(shí)際操作中,我們經(jīng)常陷入從“可怕又不可用”的狀態(tài),到“不那么可怕但仍然完全不可用”。

如果你突然發(fā)現(xiàn)你的半監(jiān)督學(xué)習(xí)起效了,這意味著你的分類器單純的不行,單純的沒有實(shí)際用處。

而且面對大量的數(shù)據(jù),半監(jiān)督學(xué)習(xí)方式通常不能實(shí)現(xiàn)和監(jiān)督學(xué)習(xí)中所實(shí)現(xiàn)的相同漸近性質(zhì),未標(biāo)注的數(shù)據(jù)可能會引入偏差。

舉個(gè)例子,在深度學(xué)習(xí)的早期階段,一種非常流行的半監(jiān)督學(xué)習(xí)方法是首先學(xué)習(xí)一個(gè)關(guān)于未標(biāo)注數(shù)據(jù)的自動(dòng)編碼器,然后對標(biāo)注數(shù)據(jù)進(jìn)行微調(diào)。

現(xiàn)在幾乎沒人這么做了。因?yàn)橥ㄟ^自動(dòng)編碼學(xué)習(xí)的表示,傾向于在經(jīng)驗(yàn)上限制微調(diào)的漸近性能。

而且,即使是已經(jīng)突飛猛進(jìn)的現(xiàn)代生成方法,也沒有對此狀況有多大的改善。可能因?yàn)樘嵘赡P托Ч脑兀⒉荒芎苡行У奶嵘诸惼鞯男Ч?/p>

當(dāng)你在今天看到機(jī)器學(xué)習(xí)工程師對模型進(jìn)行微調(diào)時(shí),基本都是從從監(jiān)督數(shù)據(jù)上學(xué)習(xí)的表示開始。而且文本是用于語言建模目的的自監(jiān)督數(shù)據(jù)。

最終我們得出一個(gè)結(jié)論:實(shí)際情況下,從其他預(yù)訓(xùn)練模型進(jìn)行轉(zhuǎn)移學(xué)習(xí)是一個(gè)更穩(wěn)健的起點(diǎn),在這方面半監(jiān)督方法難以超越。

所以,一位機(jī)器學(xué)習(xí)工程師在半監(jiān)督學(xué)習(xí)的沼澤中艱難前行的典型路徑如下:

一切都很糟糕,讓我們嘗試半監(jiān)督學(xué)習(xí)吧!(畢竟這是工程工作,比標(biāo)注數(shù)據(jù)這種純體力活可有意思多了)

看,數(shù)字上去了!但是仍然很糟糕。看起來我們還是得去搞標(biāo)注數(shù)據(jù)...

數(shù)據(jù)越多,效果越好。但是你有沒有嘗試過丟棄半監(jiān)督機(jī)器會發(fā)生什么?

嘿你知道嗎,它實(shí)際上更簡單更好。我們可以通過完全跳過2和3來節(jié)省時(shí)間和大量技術(shù)債

如果你走運(yùn)的話,你的問題也可能具有這樣的性能特征:

巧了,在這種情況下,存在一種狹窄的數(shù)據(jù)體系。半監(jiān)督學(xué)習(xí)在其中不僅不糟糕,而且還實(shí)實(shí)在在的提高了數(shù)據(jù)效率。

但是根據(jù)過來人的經(jīng)驗(yàn)來看,這個(gè)點(diǎn)很難找到。考慮到額外復(fù)雜性的成本,標(biāo)注數(shù)據(jù)量之間的鴻溝,通常不會帶來多大的效果,并且收益遞減,所以根本不值當(dāng)浪費(fèi)精力在這個(gè)上面,除非你想在這個(gè)領(lǐng)域競爭學(xué)術(shù)基準(zhǔn)。

半監(jiān)督學(xué)習(xí)其實(shí)正在悄然的進(jìn)化

說了這么多半監(jiān)督學(xué)習(xí)的弱項(xiàng)。其實(shí)本文真正想講的是在半監(jiān)督學(xué)習(xí)領(lǐng)域,一直在悄悄發(fā)生的進(jìn)化。

一個(gè)引人入勝的趨勢是,半監(jiān)督學(xué)習(xí)的可能會變成看起來更像這樣的東西:

這將改變所有目前半監(jiān)督學(xué)習(xí)領(lǐng)域的難題。

這些曲線符合我們理想中的半監(jiān)督方法的情況:數(shù)據(jù)越多越好。半監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)之間的差距,也應(yīng)該是嚴(yán)格成正比的,即使是監(jiān)督學(xué)習(xí)表現(xiàn)的很好的領(lǐng)域,半監(jiān)督學(xué)習(xí)也應(yīng)該能表現(xiàn)的很好。

而且這種效果的提升伴隨著的是成本的穩(wěn)定,以及很少量的額外復(fù)雜性。圖中的“magic區(qū)域”從更低的地方開始,同樣重要的是,它不受高數(shù)據(jù)制度的束縛。

其他一些新的發(fā)展包括:有更好的方式進(jìn)行自我標(biāo)注數(shù)據(jù),并以這樣的方式表達(dá)損失,即它們與噪聲和自我標(biāo)注的潛在偏差兼容。

最近有兩篇論文講述了半監(jiān)督學(xué)習(xí)最近的進(jìn)展。

MixMatch: A Holistic Approach to Semi-Supervised Learning

論文地址:

https://arxiv.org/abs/1905.02249

Mixmatch是本文中提出的新方法,它巧妙地結(jié)合了以前單獨(dú)使用的3種SSL范例。

一致性正則化:通過增加標(biāo)記和未標(biāo)記的數(shù)據(jù)輸入來引入

熵最小化:銳化函數(shù)減少了未標(biāo)記數(shù)據(jù)的猜測標(biāo)簽中的熵

傳統(tǒng)正則化: MixUp引入了數(shù)據(jù)點(diǎn)之間的線性關(guān)系

在每個(gè)batch中,每個(gè)標(biāo)記的數(shù)據(jù)點(diǎn)被增強(qiáng)一次,并且每個(gè)未標(biāo)記的數(shù)據(jù)點(diǎn)被增加K(超參數(shù))時(shí)間。要求該模型預(yù)測所有K個(gè)增廣條目(L類的概率),并將它們的平均值作為所有K個(gè)條目的預(yù)測。

銳化該平均值以最小化熵并將其作為最終預(yù)測。將增強(qiáng)的標(biāo)記和未標(biāo)記的數(shù)據(jù)連接并混洗以獲得W.batch中的標(biāo)記數(shù)據(jù)與第一個(gè)|X|“混合”。 W的條目得到X',其中|X|是batch中標(biāo)記數(shù)據(jù)的大小。batch中的未標(biāo)記數(shù)據(jù)與W的其余條目“混合”以獲得U'。

MixMatch算法結(jié)合了不同的SSL范例,通過一個(gè)重要因素實(shí)現(xiàn)了比所有基線數(shù)據(jù)集上所有當(dāng)前方法明顯更好的性能。它確保了差異隱私的更好的準(zhǔn)確性和隱私的權(quán)衡,因?yàn)樾枰绕渌椒ǜ俚臄?shù)據(jù)來實(shí)現(xiàn)類似的性能。

Unsupervised Data Augmentation

論文地址

https://arxiv.org/abs/1904.12848

本文的重點(diǎn)是從(主要是啟發(fā)式的,實(shí)用的)數(shù)據(jù)增強(qiáng)世界中為監(jiān)督學(xué)習(xí)提供進(jìn)展,并將其應(yīng)用于無監(jiān)督設(shè)置,作為在半監(jiān)督環(huán)境中引入更好性能的一種方式(具有許多未標(biāo)記點(diǎn),以及很少標(biāo)記的)。

論文中的無監(jiān)督數(shù)據(jù)增強(qiáng)(UDA)策略注意到兩件事:首先在監(jiān)督學(xué)習(xí)領(lǐng)域,在生成增強(qiáng)數(shù)據(jù)方面存在特定于數(shù)據(jù)集的創(chuàng)新,這對于給定數(shù)據(jù)集特別有用。語言建模,這方面的一個(gè)例子是把一個(gè)句子翻譯成另一種語言,并通過兩個(gè)訓(xùn)練有素的翻譯網(wǎng)絡(luò)再次返回,并使用得到的句子作為輸入。對于ImageNet,有一種稱為AutoAugment的方法,它使用驗(yàn)證集上的強(qiáng)化學(xué)習(xí)來學(xué)習(xí)圖像操作的策略(比如旋轉(zhuǎn),剪切,改變顏色),以提高驗(yàn)證的準(zhǔn)確性。

(2)在半監(jiān)督學(xué)習(xí)中,越來越傾向于使用一致性損失作為利用未標(biāo)記數(shù)據(jù)的一種方式。一致性損失的基本思想是,即使不知道給定數(shù)據(jù)點(diǎn)的類,如果以某種很小的方式修改它,也可以確信模型的預(yù)測應(yīng)該在數(shù)據(jù)點(diǎn)與其擾動(dòng)之間保持一致,即使你并不知道實(shí)際的ground truth是什么。通常,這樣的系統(tǒng)是在原始未標(biāo)記圖像的基礎(chǔ)上使用簡單的高斯噪聲設(shè)計(jì)的。本文的關(guān)鍵提議是用更加簡化的擾動(dòng)程序替代在監(jiān)督學(xué)習(xí)中迭代的增強(qiáng)方法,因?yàn)閮烧叩哪繕?biāo)幾乎相同。

除了這個(gè)核心理念之外,UDA論文還提出了一個(gè)額外的聰明的訓(xùn)練策略:如果你有許多未標(biāo)注的樣本和少量標(biāo)注的樣本,你可能需要一個(gè)大型模型來捕獲未標(biāo)注樣本中的信息,但這可能會導(dǎo)致過擬合。

為了避免這種情況,他們使用一種稱為“訓(xùn)練信號退火”的方法,在訓(xùn)練中的每個(gè)點(diǎn),他們從損失計(jì)算中刪除模型特別有信心的任何樣本,比如真實(shí)類別的預(yù)測高于某個(gè)閾值等。

隨著培訓(xùn)的進(jìn)行,網(wǎng)絡(luò)逐漸被允許看到更多的訓(xùn)練信號。在這種框架中,模型不能輕易過度擬合,因?yàn)橐坏┧_始在受監(jiān)督的例子上得到正確的答案,他們就會退出損失計(jì)算。

在實(shí)證結(jié)果方面,作者發(fā)現(xiàn),在UDA中,他們能夠通過極少數(shù)標(biāo)記的例子來改進(jìn)許多半監(jiān)督基準(zhǔn)。有一次,他們使用BERT模型作為基線,在其半監(jiān)督訓(xùn)練之前以無人監(jiān)督的方式進(jìn)行微調(diào),并表明他們的增強(qiáng)方法甚至可以在無人監(jiān)督的預(yù)訓(xùn)練值之上增加價(jià)值。

例如,在IMDb文本分類數(shù)據(jù)集中,僅有20個(gè)標(biāo)注樣本,UDA優(yōu)于在25000個(gè)標(biāo)注樣本上訓(xùn)練的最先進(jìn)模型。

在標(biāo)準(zhǔn)的半監(jiān)督學(xué)習(xí)基準(zhǔn)測試中,CIFAR-10具有4,000個(gè)樣本,SVHN具有1,000個(gè)樣本,UDA優(yōu)于所有先前的方法,并且降低了超過30%的最先進(jìn)方法的錯(cuò)誤率:從7.66%降至5.27%,以及從3.53%降至2.46%。

UDA也適用于具有大量標(biāo)記數(shù)據(jù)的數(shù)據(jù)集。例如,在ImageNet上,使用130萬額外的未標(biāo)記數(shù)據(jù),與AutoAugment相比,UDA將前1/前5精度從78.28/94.36%提高到79.04/94.45%。

半監(jiān)督學(xué)習(xí)激動(dòng)人心的未來

半監(jiān)督學(xué)習(xí)的另一個(gè)基礎(chǔ)轉(zhuǎn)變,是大家認(rèn)識到它可能在機(jī)器學(xué)習(xí)隱私中扮演非常重要的角色,例如Private Aggregation of Teacher Ensemble(PATE)。PATE框架通過仔細(xì)協(xié)調(diào)幾種不同機(jī)器學(xué)習(xí)模型的行為來實(shí)現(xiàn)隱私學(xué)習(xí)。

用于提取知識的隱私敏感方法正在成為聯(lián)合學(xué)習(xí)(Federated Learning)的關(guān)鍵推動(dòng)者之一,聯(lián)合學(xué)習(xí)提供了有效的分布式學(xué)習(xí)的方式,其不依賴于具有訪問用戶數(shù)據(jù)的模型,具有強(qiáng)大的數(shù)學(xué)隱私保證。

在實(shí)際環(huán)境中重新審視半監(jiān)督學(xué)習(xí)的價(jià)值有點(diǎn)激動(dòng)人心,這些進(jìn)步將會導(dǎo)致機(jī)器學(xué)習(xí)工具架構(gòu)有極大可能性發(fā)生根本轉(zhuǎn)變。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6195

    瀏覽量

    106016
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8438

    瀏覽量

    133087
  • 自動(dòng)編碼
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    5844

原文標(biāo)題:谷歌首席科學(xué)家:半監(jiān)督學(xué)習(xí)的悄然革命

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?332次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    揭秘未來辦公新趨勢:樓宇自控系統(tǒng)的智能進(jìn)化

    在科技浪潮的推動(dòng)下,辦公空間正悄然發(fā)生著翻天覆地的變化。樓宇自控系統(tǒng),作為智能建筑的靈魂,正引領(lǐng)我們邁向一個(gè)前所未有的智慧辦公新時(shí)代。這一系統(tǒng)的智能進(jìn)化,不僅深刻影響著我們的工作環(huán)境,更在無形中塑造著未來辦公的新趨勢。
    的頭像 發(fā)表于 08-10 10:21 ?440次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?896次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?946次閱讀

    谷歌Tensor G5芯片代工轉(zhuǎn)向臺積電,強(qiáng)化AI智能手機(jī)競爭力

    在半導(dǎo)體代工領(lǐng)域,一場重大的戰(zhàn)略調(diào)整正在悄然發(fā)生。谷歌,這家全球知名的科技巨頭,近期決定將下一代Tensor G5芯片的代工合作伙伴從三星電子轉(zhuǎn)向臺積電,這一決定不僅預(yù)示著谷歌在芯片制
    的頭像 發(fā)表于 07-09 09:51 ?620次閱讀

    基于FPGA的類腦計(jì)算平臺 —PYNQ 集群的無監(jiān)督圖像識別類腦計(jì)算系統(tǒng)

    STDP 無監(jiān)督學(xué)習(xí)算法,可運(yùn)用于圖像的 無監(jiān)督分類。 從平臺設(shè)計(jì)角度: (1)本設(shè)計(jì)搭建的基于 PYNQ 集群的通用低功耗的大規(guī)模類腦計(jì)算平臺,搭載 PYNN,NEST 等通用 SNN
    發(fā)表于 06-25 18:35

    谷歌地圖正在對隱私進(jìn)行重大更改

    谷歌地圖正在改變它處理您的位置數(shù)據(jù)的方式。谷歌將很快將數(shù)據(jù)本地存儲在您的設(shè)備上,而不是將您的數(shù)據(jù)備份到云端。 在發(fā)給用戶的一封電子郵件中,谷歌表示,在移動(dòng)設(shè)備開始刪除你的舊數(shù)據(jù)之前,你
    的頭像 發(fā)表于 06-13 16:44 ?778次閱讀

    谷歌提出大規(guī)模ICL方法

    谷歌DeepMind團(tuán)隊(duì)近日取得了一項(xiàng)突破性的研究成果。他們提出了強(qiáng)化和無監(jiān)督兩種新型的ICL(In-Context Learning)學(xué)習(xí)方法,這一創(chuàng)新技術(shù)能夠在多個(gè)領(lǐng)域顯著提升模型的性能。
    的頭像 發(fā)表于 05-14 14:17 ?402次閱讀

    固態(tài)電池產(chǎn)業(yè)化正在從乘用車邁向商用車

    固態(tài)電池產(chǎn)業(yè)化正在從乘用車邁向商用車。
    的頭像 發(fā)表于 03-05 09:39 ?868次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個(gè)開源的機(jī)器學(xué)習(xí)框架,由
    的頭像 發(fā)表于 03-01 16:25 ?966次閱讀

    谷歌交互世界模型重磅發(fā)布

    谷歌模型
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月28日 09:13:06

    機(jī)器學(xué)習(xí)基礎(chǔ)知識全攻略

    監(jiān)督學(xué)習(xí)通常是利用帶有專家標(biāo)注的標(biāo)簽的訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個(gè)從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓(xùn)練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓(xùn)練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?285次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識全攻略

    DALI照明在物聯(lián)網(wǎng)時(shí)代的進(jìn)化

    隨著物聯(lián)網(wǎng)的發(fā)展,照明通信規(guī)范DALI正在逐步整合更多的智能功能。本文將介紹DALI照明在物聯(lián)網(wǎng)時(shí)代的進(jìn)化及其對照明系統(tǒng)可能產(chǎn)生的潛在影響。
    的頭像 發(fā)表于 02-23 10:02 ?753次閱讀
    DALI照明在物聯(lián)網(wǎng)時(shí)代的<b class='flag-5'>進(jìn)化</b>
    百家乐官网赢钱打| 最好的百家乐论坛| 百家乐单机游戏下| 棋牌| 百家乐官网娱乐真人娱乐| 百家乐强弱走势| 博彩网络| 百家乐官网免费改| 水果机| 金宝博百家乐官网娱乐城| 24山向与周天360度关系示意图| 大发888官网df888| CEO百家乐官网现金网| 广州百家乐娱乐场| 真钱斗地主| 百家乐闲单开多少| 盈丰娱乐| 百家乐官网庄闲桌子 | 新龙县| 7人百家乐桌布| 灵武市| 百家乐冲动| 百家乐官网佣金计算| 百家乐赌博娱乐城| 百家乐官网有什么打法| 百家乐赢钱秘籍鹰| 百家乐官网赌神| 百家乐玩法介| 百家乐官网透视牌靴哪里有| 二八杠游戏机| 电子百家乐官网破| 大发888的促销代码| 百家乐官网讲坛汉献| 大发888棋牌游戏官网| 百家乐官网真人游戏攻略| 大发888怎么注册| 将军百家乐官网的玩法技巧和规则 | 百盛百家乐官网的玩法技巧和规则| 二八杠单机游戏| 百家乐官网全部规则| 网上真人娱乐场|