close
搶便宜趁這一檔!!!!!【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)現在居然打折了!!!之前觀望好久的【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)這次買好划算

以前都花爸媽的錢這一次終於可以自己買電腦 ,自己出錢比較沒負擔,硬生生讓我等到折扣真的太好了

分期付款或是一次付清都有不同的優惠,我覺得真的是佛心來的~

以前爬文文章都說【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)滿不錯的,可以購買,看了很多規格確實不錯 我也觀望好久

好險還懂得一些不然現在電腦實在太多了都不知道要怎麼挑

現在就來說說 購買【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)的心路歷程



一開始沒打算在網路上購買的【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)我試過實體以後決定在網路上購買價格 比較便宜而且會送到家裡來

也是因為是在網路上販售並沒有在實體店面沒有那些人事費用價格就可以直接回饋價格給網民


而且這次申請帳號我還有拿到折價券(例如滿萬送千,所以我買兩萬多的電腦基本上就折兩千)

當然在購物商城買的話,除了有詳細的介紹以外,更有保障!!而且速度也很快~on09

↓↓↓限量折扣的優惠按鈕↓↓↓





























品牌名稱
Intel處理器
  • 第7代Celeron
AMD處理器
  • 其他
主機板
  • Intel-H110
顯示卡
  • GTX1050系列
記憶體
  • 4G(DDR4)
硬碟
作業系統
固態硬碟
  • 120G SSD




















【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)

討論,推薦,開箱,CP值,熱賣,團購,便宜,優惠,介紹,排行,精選,特價,周年慶,體驗,限時,品牌電腦推薦,電腦主機推薦,桌上型電腦推薦,筆記型電腦推薦,桌上型電腦價格,筆記型電腦價格,電腦推薦2017


↓↓↓現在馬上點擊購買↓↓↓



另外在推薦我平時會使用的平台可以比較價格找便宜~~

寶貝用品購物網推薦

Hotels.com

法貝兒嬰兒用品

專門賣寶寶天然的清潔用品~~

Agoda訂房網

MOTHER-K Taiwan

韓國首選婦幼產品,既時尚又實用

Agoda訂房網

MamiBuy媽咪拜

適合給新手爸媽的嬰兒購物網,一應俱全!

各大購物網快速連結

東森購物網 東森購物網 性質大多相同
建議每一家搜尋要購買的品項後
比對出能折價卷能扣最多的一家來消費
保養品、化妝品我比較常在momo購物網買,切記是"購物網"才有正品保障!!
森森購物網 森森購物網
udn買東西
MOMO購物網 MOMO購物網
MOMO購物網 瘋狂麥克 有時候新鮮貨我都在瘋狂麥克找,基本上想找的,瘋狂賣客都會賣~












AlphaGo算法論文 神經網絡加樹搜索擊敗李世石

公眾號數據精簡DataSimp

數據精簡DataSimp分享:信息與數據挖掘分析、數據科學研究前沿、數據資源現狀和數據簡化基礎的學科知識、技術應用、產業科研、人物機構、新聞活動等信息。歡迎大傢積極參與投稿,為數據科學產學研做貢獻,使國人盡快提高人類信息管理能力,提高社會信息流通效率。本期內容:AlphaGo算法論文《精通圍棋博弈的深層神經網絡和樹搜索算法》漢譯(DeepMind圍棋人工智能團隊2016.1.28發表在《自然》雜志的nature16961原文翻譯,人工智能之機器學習經典收藏版)、公號附錄(大數據存儲單位和數據簡化DataSimp公眾號簡介)。

精通圍棋博弈的深層神經網絡和樹搜索算法

作者:

①戴維·斯爾弗1*,②黃士傑1*,③克裡斯·J。·麥迪遜1,④亞瑟·格斯1,⑤勞倫特·西弗瑞1,⑥喬治·范登·德裡施1,⑦朱利安·施立特威澤1,⑧揚尼斯·安東諾婁1,⑨吠陀·潘聶施爾萬1,⑩馬克·蘭多特1,?傘德·迪勒曼1,?多米尼克·格魯1,?約翰·納姆2,?納爾 卡爾克佈倫納1,?伊利亞·薩茨基弗2,?蒂莫西·李烈克萊普1,?馬德琳·裡奇1,?科瑞·卡瓦口格魯1,?托雷·格雷佩爾1,和?戴密斯·哈薩比斯1

作者單位說明:1谷歌DeepMind,英國倫敦EC4A 3TW,新街廣場5號。2谷歌,美國加利福尼亞州94043,景山,劇場路1600號。*這些作者對這項工作作出瞭同等貢獻。

中文翻譯者說明*:

原文發表在《自然》2016年1月28日第529卷,484-489頁,保留所有權利。?英國麥克米倫出版公司2016版權。本文漢語譯者基於“忠於原文”原則全文翻譯。同時參考自然雜志官網http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html,由十五部分組成:摘要、導言、策略網絡的監督學習、策略網絡的強化學習、估值網絡的強化學習、基於策略網絡和估值網絡的搜索算法、AlphaGo博弈算力評估、討論、方法、參考文獻、致謝、作者信息、擴展數據圖像和表格、補充資料和網站評論。本文翻譯到算力評估。網站提示:郵件可發至戴維·斯爾弗(davidsilver@google.com)或Demis Hassabis戴密斯·哈薩比斯(demishassabis @google.com)。

歡迎讀者閱讀原文,加強學習理解、掌握應用核心信息技術。時間倉促,疏漏之處難免,敬請提出寶貴意見。中文譯者:秦隴紀-數據簡化DataSimp(貢獻3/5以上),姬向軍-陜西師范大學,楊武霖-中國空間技術研究院,池紹傑-北京工業大學。(轉載本公號文章請註明作者、出處、時間等信息,如“此文轉自:數據簡化DataSimp英譯組秦隴紀等人;?微信公號:數據簡化DataSimp;2016.3.15Tue譯著?。”字樣,詳情郵件咨詢QinDragon2010@qq.com,本文正在投稿,轉載請保留本信息。歡迎數據科學和人工智能學界、產業界同仁賜稿。)

滾筒洗衣機推薦2016要:

由於海量搜索空間、評估棋局和落子行為的難度,圍棋長期以來被視為人工智能領域最具挑戰的經典遊戲。這裡,我們介紹一種新的電腦圍棋算法:使用“價值網絡”評估棋局、“策略網絡”選擇落子。這些深層神經網絡,是由人類專傢博弈訓練的監督學習和電腦自我博弈訓練的強化學習,共同構成的一種新型組合。沒有任何預先搜索的情境下,這些神經網絡能與頂尖水平的、模擬瞭千萬次隨機自我博弈的蒙特卡洛樹搜索程序下圍棋。我們還介紹一種新的搜索算法:結合瞭估值和策略網絡的蒙特卡洛模擬算法。用這種搜索算法,我們的程序AlphaGo與其它圍棋程序對弈達到99.8%的勝率,並以5比0擊敗瞭人類的歐洲圍棋冠軍。這是計算機程序第一次在標準圍棋比賽中擊敗一個人類職業棋手——以前這被認為是需要至少十年以上才能實現的偉業。

導言:

完美信息類遊戲都有一種最優值函數v*(s),從所有遊戲者完美對弈時每一棋盤局面或狀態s,判斷出遊戲結果。這類遊戲可以通過遞歸計算一個約含bd種可能落子情況序列的搜索樹,求得上述最優值函數來解決。這裡,b是遊戲廣度(每個局面可合法落子的數量),d是遊戲深度(對弈步數)。在國際象棋(b≈35,d≈80)1,特別是圍棋(b≈250,d≈150)1等大型遊戲中,雖然窮舉搜索並不可取2,3,但有兩種常規方法可以減少其有效搜索空間。第一種方法,搜索深度可以通過局面評估來降低:用狀態s截斷搜索樹,將s的下級子樹用預測狀態s結果的近似值函數v(s)≈v*(s)代替。這種做法在國際象棋4,跳棋5和奧賽羅6中取得瞭超過人類的性能;但由於圍棋7的復雜性,這種做法據信在圍棋中變得棘手。第二種方法,搜索廣度可以用局面s中表示可能落子a的策略函數p(a|s)產生的概率分佈的弈法抽樣來降低。例如,蒙特卡洛走子算法8搜索到最大深度時無任何分支,而是用策略變量p為對弈雙方的長弈法序列采樣。大體上,這些走子行為提供瞭一種有效的局面評估,在五子棋8、拼字遊戲9和低水平業餘圍棋比賽10中均實現瞭超越人類水平的性能。

蒙特卡洛樹搜索(MCTS)11,12用蒙特卡洛走子來估算一個搜索樹中每個狀態的值。隨著更多模擬情況的執行,該搜索樹生長變大、相關值變得更加準確。隨著時間的推移,通過選擇那些較高估值的子樹,搜索過程中選擇弈法的策略也得到瞭提高。該策略漸進收斂於最優弈法,對應的估值結果收斂於該最優值函數12。當下最強的圍棋程序都基於MCTS,通過預測人類高手落子情況而訓練的一些策略,來增強性能13。這些策略大都把此搜索過程限制在高概率弈法,以及走子時的弈法采樣。該方法已經在很強的業餘博弈中取得瞭成功13–15。然而,以前的做法僅限於淺層策略13–15,或某些基於一種帶輸入型特征值的線性函數組合的估值函數。

近來,深度卷積神經網絡在視覺領域達到前所未有的高性能:例如圖像分類17、人臉識別18、雅達利遊戲19。他們用重疊排列的多層神經元,逐步構建圖像的局部抽象表征20。我們在圍棋中采用類似架構:通過把棋局看做為一個19×19的圖像,使用若幹卷積層構造該局面的表征值。用這些神經網絡,我們來減少有效深度及搜索樹廣度:用一個估值網絡評估棋局,用一個策略網絡做弈法取樣。

我們用一種由機器學習若幹階段組成的管道來訓練這些神經網絡(圖1)。開始階段,我們直接使用人類高手的落子弈法訓練一種有監督學習(SL)型走棋策略網絡pσ。此階段提供快速、高效的帶有即時反饋和高品質梯度的機器學習更新數據。類似以前的做法13,15,我們也訓練瞭一個快速走棋策略pπ,能對走子時的弈法快速采樣。接下來的階段,我們訓練一種強化學習(RL)型的走棋策略網絡pρ,通過優化那些自我博弈的最終結果,來提高前面的SL策略網絡。此階段是將該策略調校到贏取比賽的正確目標上,而非最大程度的預測準確性。最後階段,我們訓練一種估值網絡Vθ,來預測那些采用RL走棋策略網絡自我博弈的贏傢。我們的程序AlphaGo,用MCTS有效結合瞭策略和估值網絡。

圖1:神經網絡訓練管道和架構

左邊圖1a,一種快速走子策略pπ和監督學習(SL)策略網絡pσ被訓練,用來預測一個局面數據集中人類高手的落子情況。一種強化學習(RL)策略網絡pρ按該SL策略網絡進行初始化,然後對前一版策略網絡用策略梯度學習來最大化該結果(即贏得更多的比賽)。通過和這個RL策略網絡自我博弈,產生一個新數據集。最後,一種估值網絡vθ由回歸訓練的,用來預測此自我博弈數據集裡面局面的預期結果(即是否當前玩傢獲勝)。右邊圖1b,AlphaGo神經網絡架構的示意圖。圖中的策略網絡表示:作為輸入變量的棋局s,通過帶參數σ(SL策略網絡)或ρ(RL策略網絡)的許多卷積層,輸出合法落子情況a的概率分佈或,由此局面概率圖來呈現。此估值網絡同樣使用許多帶參數θ的卷積層,但輸出一個用來預測局面s?預期結果的標量值vθ(s?)。

1、策略網絡的監督學習

訓練管道第一階段,我們按以前的做法用監督學習預測圍棋中高手的落子情況13,21–24。此SL策略網絡pσ(a|s)在帶有權重數組變量σ和整流器非線性特征值數組的卷積層間交替使用。最終的softmax層輸出一個所有合法落子情況的概率分佈a。此策略網絡的輸入變量s是一個棋局狀態的簡單標識變量(見擴展數據表2)。策略網絡基於隨機采樣的棋盤情形-操作對(s,a)做訓練:采用隨機梯度升序法,在選定狀態s時,取人類落子a的最大相似度,

我們用KGS圍棋服務器上的3000萬種棋局,訓練瞭一個13層策略網絡,稱之為SL策略網絡。對比其他研究團體提交的44.4%頂尖水準,該網絡在一個公開測試數據集上預測高手落子情況:采用全部輸入型特征值可達57.0%精度,隻采用原始棋局和落子歷史數據做為輸入可達55.7%(全部結果在擴展數據表3)24。準確性上小的改進,可導致算力大幅提高(圖2a);較大網絡亦可實現更好的精度,但在搜索過程中的評價會變慢。我們也訓練瞭一個快速、但低準確度的走子策略pπ(a|s),采用一種帶權重π的小圖式特征量的線性softmax層(參見擴展數據表4),這樣,僅用2微秒選擇一種弈法可以達到24.2%的精確度,而不是此策略網絡的3毫秒。

圖2:策略和估值網絡的算力和準確性。

圖2a,標尺圖展示作為一個他們訓練精確性函數的策略網絡博弈算力。每個卷積層分別有128,192,256和384個過濾器的策略網絡在訓練期間被定期評估;此圖顯示AlphaGo運用那種策略網絡與比賽版AlphaGo對戰的勝率。圖2b,該估值網絡和不同策略走子弈法之間的估值精度比較。從人類專傢博弈中做局面和結果采樣。每局都由一個單一向前傳遞的估值網絡vθ,或100步走子情況的平均結果做評估,用均勻隨機走子,快速走子策略pπ,SL策略網絡pσ或RL策略網絡pρ等使局面充分被評估。此預測值和實際博弈間的均方差,繪制在博弈階段(多少落子已經在給定局面)。

2、策略網絡的增強學習

訓練管道第二階段,旨在用策略梯度型增強學習(RL)來提高之前的策略網絡25,26。這種RL策略網絡pρ在結構上與SL策略網絡相同,其權重ρ被初始化為相同值:ρ=σ。我們使其在當前策略網絡pρ和某個隨機選擇的上次迭代產生的策略網絡之間進行對弈。這種方法的訓練,要用隨機化的存有對手穩定態的數據池,來防止對當前策略的過度擬合。我們使用報酬函數r(s),對所有非終端時間步長t T時,賦值為0。其結果值zt?=?±?r(sT)是博弈結束時的終端獎勵:按照當前博弈者在時間步長t時的預期,給勝方+1、敗方?1。權重在每一次步長變量t時,按照預期結果最大值的方向,進行隨機梯度升序更新25。

博弈中我們評估該RL策略網絡的性能,從弈法輸出概率分佈對每一次落子采樣為。與SL策略網絡正面博弈時,RL策略網絡贏得瞭80%以上。我們還用最厲害的開源圍棋程序Pachi14來測試。那是一種復雜的蒙特卡洛搜索程序——KGS服務器上排名第二的業餘選手dan,每個落子要執行10萬次模擬。不用任何搜索,RL策略網絡贏得瞭85%與Pachi的對弈。對照以前的頂尖水平,僅基於卷積網絡的監督學習與Pachi23對弈隻能贏得11%、與較弱程序Fuego24對弈為12%。

3、估值網絡的增強學習

最後階段的訓練管道聚焦在對棋局的評估,用一個估值函數vp(s)做估計,給棋局s中兩個使用策略p的博弈者預測結果28,29,30。

理想情況下,我們想知道完美博弈v*(s)中的該最優值函數;實踐中,我們用值函數代替做估算,作為最強策略用在RL策略網絡pρ。我們用帶權重數組θ的估值網絡vθ(s)對此估值函數做近似,

。該神經網絡具有一種與此估值函數相似的結構,但輸出一個單一預測,而不是一個概率分佈。我們用狀態-結果對(s, z)回歸,訓練該估值網絡權重,使用隨機梯度降序來最小化該預測值vθ(s)和相應結果z間的均方差(MSE),

用包含全部博弈的數據集,來預測對弈結果的幼稚做法,會導致過度擬合。其錯誤在於:連續棋局是緊密相關的,不同處隻有一枚棋子,但其回歸目標被該完整對弈所共用。我們用這種方法在KGS數據集做過訓練,該估值網絡記住瞭那些博弈結果,並沒有推廣到新棋局,相比此訓練集上的0.19,此測試集上達到瞭0.37的最小均方差(MSE)。為瞭緩解這個問題,我們生成瞭一個新的含有3000萬明顯不同棋局的自我博弈數據集,其每個采樣都來自於某一單獨對弈。每一場對弈都是在上述RL策略網絡與自身之間進行,直到博弈結束。在該數據集上的訓練,采用訓練和測試數據集分別可達到0.226和0.234的均方差,這表明最小的過擬合。圖2b顯示瞭上述估值網絡的棋局評估精度,相比使用快速走子策略pπ的蒙特卡洛走子程序,此估值函數一貫都是更加準確。一種vθ(s)單一評價函數也接近使用RL策略網絡Pρ的蒙特卡洛程序的精度,且使用少於15000次的計算量。

4。基於策略網絡和估值網絡的搜索算法

AlphaGo在一種采用前向搜索選擇弈法的MCTS算法裡,結合使用策略和估值網絡(圖3)。每個搜索樹邊界(s, a)存儲:弈法值Q(s, a),訪問計數N(s, a),和前驅概率P(s, a)。從當前根狀態出發,該搜索樹用模擬(指已完成的博弈中做無備份降序)做遍歷。在每次模擬的每個時間步長t,從狀態st內選出一個弈法at,

當滿足,最大弈法值加上與前驅概率成正比、但與訪問計數成反比的獎勵值:

,能有效促進對搜索空間的探索。當這個遍歷在步驟L,搜索一個葉節點sL時,該葉節點可能被展開。該葉節點的局面sL僅通過SL型策略網絡pσ處理一次。該輸出概率被存儲為每次合法弈法a的前驅概率。

這個葉節點通過兩種不同方式被評估:一種是通過估值網絡vθ(sL);第二種是,通過一種隨機落子的結果值zL,直到使用快速走子策略pπ在步長T時結束博弈。這些評價被組合起來,用一種混合參數λ,進入一個葉節點估值V(sL):

模擬結束時,遍歷過的所有邊界其弈法值和雙門小冰箱推薦和訪問計數就會被更新。每個邊界累加其訪問計數值,和所有經過該邊界做的模擬的平均估值:

式中是其第i次模擬的葉節點,1(s, a, i)代表第i次模擬中一個邊界(s, a)是否被訪問。當該搜索結束時,本算法選擇這次初始局面模擬的訪問計數最多的弈法來落子。

圖3:AlphaGo的蒙特卡洛樹搜索。

圖3a,每次模擬都遍歷帶最大弈法值Q的那個邊界節點,與一個由那個邊界節點存儲的前驅概率產生的獎勵值u(P)相加。圖3b,此葉節點可能被展開;新節點采用策略網絡pσ,其輸出概率值P被存儲在每個弈法的前驅概率P中。圖3c,模擬結束後,此葉節點被兩種方法評估:采用估值網絡vθ;和博弈最後用快速落子策略pπ進運行一次走子,然後用函數r計算此贏傢的估值。圖3d,弈法值Q被更新,用來追蹤所有估值r(·)的中間值和那個弈法下面的子樹vθ(·)。

值得註意的是,此AlphaGo的SL策略網絡pσ比那個加強型RL策略網絡pρ表現地更好,主要原因在於人類選擇最有前景落子中一種可變化的弈法,變頻冷氣機比較而RL僅對該單次落子做最優化。然而,從強化後的RL策略網絡中推導的估值函數,在AlphaGo的性能要優於SL策略網絡推導出的估值函數。

跟傳統啟發式搜索相比,策略和估值網絡需要高出幾個數量級的計算量。為瞭有效結合MCTS和深度神經網絡,AlphaGo采用異步多線程搜索,在多CPU上執行模擬、多GPU並行計算策略和估值網絡。本最終版AlphaGo使用瞭40個搜索線程、48個CPU和8個GPU。我們也應用瞭一種分佈式AlphaGo版本,部署在多臺機器上、40個搜索線程、1202個CPU和176個GPU。方法章節提供異步和分佈式MCTS全部細節。

5.AlphaGo博弈算力評估

為瞭評估AlphaGo,我們在幾個版本的AlphaGo和其它幾種圍棋程序之間運行瞭一場內部競賽,包括最強商業軟件Crazy Stone13,和Zen,和最強開源程序Pachi14和Fuego15。所有這些程序基於高性能MCTS算法。此外,我們納入瞭開源程序GnuGo,一種使用優於MCTS的頂級水平搜索算法的圍棋程序。在比賽中,所有軟件每一步都隻有5s中的計算時間。

(未完待續。感謝翻譯過程中Dr何萬青Dr餘凱ETS顏為民等人的譯文建議。歡迎大傢關註譯文質量,我們共同提高。)

附錄一、大數據存儲單位(TB以上)

計算機存儲最小的基本單位是bit,按順序給出所有計量單位:bit位(無法分割)、Byte字節(10^0)、KB千字節(10^1)、MB兆字節(10^3)、GB吉字節(10^6)、TB太字節(10^9)、PB拍字節(10^12)、EB艾字節(10^15)、ZB澤字節(10^18)、YB堯字節(10^21)、BB(10^24)、NB(10^27)、DB(10^30)。大數據存儲單位大都TB以上,按照進率1024(2的十次方)來計算:

1 TB = 1,024 GB(Gigabyte吉字節) = 1,048,576 MB(Megabytes兆字節);

1 PB(Petabyte千萬億字節,拍字節) = 1,024 TB(Terabytes) = 1,048,576 GB;

1 EB(Exabyte百億億字節,艾字節) = 1,024 PB(Petabytes) = 1,048,576 TB;

1 ZB(Zettabyte十萬億億字節,澤字節) = 1,024 EB(Exabytes) = 1,048,576 PB;

1 YB(Yottabyte一億億億字節,堯字節) = 1,024 ZB(Zettabytes) = 1,048,576 EB;

1 BB(Brontobyte一千億億億字節) = 1,024 YB(Yottabytes) = 1,048,576 ZB;

1 NB(N?Geopbyte?沒查到翻譯) = 1,024 BB(Brontobytes) = 1,048,576 YB;

1 DB(?沒查到) = 1,024 NB = 1,048,576 BB。

註:進制單位全稱及譯音 yotta [堯]它 Y。 10^21, zetta [澤]它 Z。 10^18, exa [艾]可薩 E。 10^15, peta [拍]它 P。 10^12, tera [太]拉 T。 10^9, giga [吉]咖 G。 10^6, mega [兆] M。 10^3“兆”為百萬級數量單位。(秦隴紀16科普版)















【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)筆電推薦【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)筆電推薦2017 【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD) 電腦價格【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)主機推薦 【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)推薦品牌 【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)筆電評價【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)學生筆電推薦【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD)電競筆電推薦【技嘉平台】Intel雙核{夜星遊俠-GTX1050獨顯版}SSD燒錄電腦(G3930-4G-120G_SSD) i7主機推薦 i5主機推薦 您或許有興趣的東西:

台灣電動床工廠 電動床
台灣電動床工廠 電動床
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
一川抽水肥清理行|台中抽水肥|台中市抽水肥|台中抽水肥推薦|台中抽水肥價格|台中水肥清運
X戰警多鏡頭行車記錄器專業網|多鏡頭行車記錄器|多鏡頭行車紀錄器比較|多鏡頭行車紀錄器推薦|多鏡頭行車紀錄器影片
台中抽水肥專業網|台中抽水肥|台中市抽水肥|台中抽水肥推薦|台中抽水肥價格|台中水肥清運
台灣靜電機批發工廠|靜電機|靜電機推薦|靜電油煙處理機|靜電油煙處理機推薦
優美環保科技工程-靜電機,靜電機推薦,靜電機保養,靜電機清洗,靜電油煙處理機


arrow
arrow

    drp431d1g8 發表在 痞客邦 留言(0) 人氣()