範文齋

位置:首頁 > 行業範文 > 人工智能

人工智能方面的論文

大家對人工智能的認識是什麼呢?現在人工智能時代已經來臨了。以下是小編精心準備的人工智能方面的論文,大家可以參考以下內容哦!

人工智能方面的論文

摘 要:去年3月,AlphaGo以4:1的絕對優勢戰勝了世界圍棋冠軍李世石,排名世界第二。去年年底到今年年初,短短一週內,AlphaGo的升級版Master連勝60場,在圍棋界立於不敗之地。本文圍繞圍棋人工智能AlphaGo系統,主要對圍棋人工智能的基本概念、工作原理以及圍棋人工智能發展意義進行了深刻分析。

  關鍵詞:AlphaGo;人工智能;圍棋;未來展望

  1 圍棋與人工智能

圍棋作爲中國傳統四大藝術之一,擁有着幾千年的悠久歷史。圍棋棋盤由19條橫線和19條豎線組成,共有19*19=361個交叉點,圍棋子分爲黑白兩種顏色,對弈雙方各執一色,輪流將一枚棋子下在縱橫交叉點上,終局時,棋子圍上交叉點數目最多的一方獲勝。圍棋棋盤上每一個縱橫交叉點都有三種可能性:落黑子、落白子、留空,所以圍棋擁有高達3^361種局面;圍棋的每個回合有250種可能,一盤棋可長達150回合,所以圍棋的計算複雜度爲250^150,約爲10^170,然而全宇宙可觀測的原子數量只有10^80,這足以體現圍棋博弈的複雜性和多變性。

人工智能(Artificial Intelligence,AI)主要研究人類思維、行動中那些尚未算法化的功能行爲,使機器像人的大腦一樣思考、行動。長期以來,圍棋作爲一種智力博弈遊戲,以其變化莫測的博弈局面,高度體現了人類的智慧,爲人工智能研究提供了一個很好的測試平臺,圍棋人工智能也是人工智能領域的一個重要挑戰。

傳統的計算機下棋程序的基本原理,是通過有限步數的搜索樹,即採用數學和邏輯推理方法,把每一種可能的路徑都走一遍,從中選舉出最優路徑,使得棋局勝算最大。這種下棋思路是充分發揮計算機運算速度快、運算量大等優勢的“暴力搜索法”,是人類在對弈規定的時間限制內無法做到的。但是由於圍棋局面數量太大,這樣的運算量對於計算機來講也是相當之大,目前的計算機硬件無法在對弈規定的時間內,使用計算機佔絕對優勢的“暴力搜索法”完成圍棋所有局面的擇優,所以這樣的下棋思路不適用於圍棋對弈。

搜索量巨大的問題一直困擾着圍棋人工智能,使其發展停滯不前,直到2006年, 蒙特卡羅樹搜索的應用出現,才使得圍棋人工智能進入了嶄新的階段,現代圍棋人工智能的主要算法是基於蒙特卡洛樹的優化搜索。

  2 圍棋人工智能基本原理

目前圍棋人工智能最傑出的代表,是由谷歌旗下人工智能公司DeepMind創造的AlphaGo圍棋人工智能系統。它在與人類頂級圍棋棋手的對弈中充分發揮了其搜索和計算的優勢,幾乎在圍棋界立於不敗之地。

AlphaGo系統的基本原理是將深度強化學習方法與蒙特卡洛樹搜索結合,使用有監督學習策略網絡和價值網絡,極大減少了搜索空間,即在搜索過程中的計算量,提高了對棋局估計的'準確度。

2.1 深度強化學習方法

深度學習源於人工神經網絡的研究,人類大量的視覺聽覺信號的感知處理都是下意識的,是基於大腦皮層神經網絡的學習方法,通過模擬大腦皮層推斷分析數據的複雜層狀網絡結構,使用包含複雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象,其過程類似於人們識別物體標註圖片。現如今,應用最廣泛的深度學習模型包括:卷積神經網絡、深度置信網絡、堆棧自編碼網絡和遞歸神經網絡等。

強化學習源於動物學習、參數擾動自適應控制等理論,通過模擬生物對環境以試錯的方式進行交互達到對環境的最優適應的方式,通過不斷地反覆試驗,將變化無常的動態情況與對應動作相匹配。強化學習系統設置狀態、動作、狀態轉移概率和獎賞四個部分,在當前狀態下根據策略選擇動作,執行該過程並以當前轉移概率轉移到下一狀態,同時接收環境反饋回來的獎賞,最終通過調整策略來最大化累積獎賞。

深度學習具有較強的感知能力,但缺乏一定的決策能力;強化學習具有決策能力,同樣對感知問題無能爲力。深度強化學習方法是將具有感知能力的深度學習和具有決策能力的強化學習結合起來,優勢互補,用深度學習進行感知,從環境中獲取目標觀測信息,提供當前環境下的狀態信息;然後用強化學習進行決策,將當前狀態映射到相應動作,基於初期彙報評判動作價值。

深度強化學習爲複雜系統的感知決策問題提供了一種全新的解決思路。

2.2 蒙特卡洛樹搜索

蒙特卡洛樹搜索是將蒙特卡洛方法與樹搜索相結合形成的一種搜索方法。所謂蒙特卡洛方法是一種以概率統計理論爲指導的強化學習方法,它通常解決某些隨機事件出現的概率問題,或者是某隨機變量的期望值等數字特徵問題。通過與環境的交互,從所採集的樣本中學習,獲得關於決策過程的狀態、動作和獎賞的大量數據,最後計算出累積獎賞的平均值。

蒙特卡洛樹搜索算法是一種用於解決完美信息博弈(perfect information games,沒有任何信息被隱藏的遊戲)的方法,主要包含選擇(Selection)、擴展(Expansion)、模擬(Simulation)和反向傳播(Backpropagation)四個步驟。

2.3 策略網絡與價值網絡

AlphaGo系統擁有基於蒙特卡洛樹搜索方法的策略網絡(Policy Network)和價值網絡(Value Network)兩個不同的神經網絡大腦,充分借鑑人類棋手的下棋模式,用策略網絡來模擬人類的“棋感”,用價值網絡來模擬人類對棋盤盤面的綜合評估。

AlphaGo系統主要採用有監督學習策略網絡,通過觀察棋盤佈局,進行棋路搜索,得到下一步合法落子行動的概率分佈,從中找到最優的一步落子位置,做落子選擇。DeepMind團隊使用棋聖堂圍棋服務器上3000萬個專業棋手對弈棋譜的落子數據,來預測棋手的落子情況。期間,系統進行上百萬次的對弈嘗試,進行強化學習,將每一個棋局進行到底,不斷積累“經驗”,學會贏面最大的棋路走法,最終達到頂級圍棋棋手的落子分析能力。而AlphaGo的價值網絡使用百萬次對弈中產生的棋譜,根據最終的勝負結果來進行價值網絡訓練,預測每一次落子選擇後贏棋的可能性,通過整體局面的判斷來幫助策略網絡完成落子選擇。

  3 圍棋人工智能意義

經過比賽測試證明,AlphaGo系統的圍棋對弈能力已經達到世界頂級棋手水平。一直以來,圍棋因爲複雜的落子選擇和巨大的搜索空間使得圍棋人工智能在人工智能領域成爲一個具有代表性的難度挑戰。目前的硬件水平面對如此巨大的搜索空間顯得束手無策,AlphaGo系統基於有監督學習的策略網絡和價值網絡大大減少搜索空間,在訓練中開創性地使用深度強化學習,然後結合蒙特卡洛樹搜索方法,使得系統自學習能力大大提高,並且AlphaGo系統在與人類頂級棋手對弈中取得的連勝卓越成績,櫧湓諶斯ぶ悄芰煊虻於了堅實的里程碑地位。

雖然圍棋人工智能取得了如此優秀的成績,但是也僅僅是它在既定規則內的計算處理能力遠遠超過了人類的現有水平,並且還有有待提高和完善的地方。在人類的其他能力中,例如情感、思維、溝通等等領域,目前的人工智能水平是遠遠達不到的。但是隨着科技的進步和人類在人工智能領域的研究深入,人工智能與人類的差距會逐漸減小,像圍棋人機大戰人工智能連勝人類這樣的例子也可能在其他領域發生,這就意味着人工智能的發展前景十分可觀。

  4 結語

人類和人工智能共同探索圍棋世界的大幕即將拉開,讓人類棋手結合人工智能,邁進全新人機共同學習交流的領域,進行一次新的圍棋革命,探索圍棋真理更高的境界。

  參考文獻

[1]趙冬斌,邵坤,朱圓恆,李棟,陳亞冉,王海濤,劉德榮,周彤,王成紅.深度強化學習綜述:兼論計算機圍棋的發展[J].控制理論與應用,2016,(06):701-717.

[2]陶九陽,吳琳,胡曉峯aGo技術原理分析及人工智能軍事應用展望[J].指揮與控制學報,2016,(02):114-120.

標籤:人工智能 論文