V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ethanlu
V2EX  ›  AlphaGo

如果阿法狗和阿法狗下一盘的话会是什么结果?

  •  
  •   ethanlu · 2017-01-05 09:54:22 +08:00 · 4063 次点击
    这是一个创建于 2885 天前的主题,其中的信息可能已经有所发展或是发生改变。

    阿法狗会死机吗?

    34 条回复    2017-01-05 23:01:54 +08:00
    mofet
        1
    mofet  
       2017-01-05 09:56:28 +08:00
    你看不到的时候它一直在自己跟自己下棋。
    ethanlu
        2
    ethanlu  
    OP
       2017-01-05 10:00:31 +08:00
    @mofet 所以都是和?
    RqPS6rhmP3Nyn3Tm
        3
    RqPS6rhmP3Nyn3Tm  
       2017-01-05 10:03:40 +08:00 via iPhone
    ……这玩意的学习过程主要就是自己和自己下棋,然后学习
    qiayue
        4
    qiayue  
       2017-01-05 10:04:00 +08:00
    今天读读日报上有一篇讲得比较细致,看完你就明白了
    ycge234
        5
    ycge234  
       2017-01-05 10:07:23 +08:00
    当然是有输有赢,赢的多了那个就可以当下个版本了···
    laoyuan
        6
    laoyuan  
       2017-01-05 10:11:28 +08:00
    想象一下自己给自己调参数,然后两个参数下 100 盘,输了的参数淘汰,继续下一调。。
    ethanlu
        7
    ethanlu  
    OP
       2017-01-05 10:14:34 +08:00
    jmc891205
        8
    jmc891205  
       2017-01-05 10:17:09 +08:00   ❤️ 7
    把上万只阿尔法狗关在同一个房间里厮杀
    能站到最后的那个 就被称为狗中之王:P
    Mark24
        9
    Mark24  
       2017-01-05 10:21:51 +08:00
    他一直和自己下啊,自我学习。
    grayon
        10
    grayon  
       2017-01-05 10:26:09 +08:00
    然后 AlphaGo 就变成了 Master
    hackerwgf
        11
    hackerwgf  
       2017-01-05 10:36:07 +08:00
    debiann
        12
    debiann  
       2017-01-05 10:50:26 +08:00 via iPhone
    你没自己跟自己下过棋么,这是自我提高的过程啊
    markx
        13
    markx  
       2017-01-05 10:56:51 +08:00
    结果就是 赢的继续是阿法狗,输的什么都不是。
    SuperMild
        14
    SuperMild  
       2017-01-05 11:05:30 +08:00 via iPad
    输的版本被舍弃,赢的版本继续撕杀,这不就是养蛊吗!
    deadEgg
        15
    deadEgg  
       2017-01-05 11:10:15 +08:00
    感觉楼上很多都不了解深度学习。。

    和版本一点关系都没有,阿法狗的版本不是自己迭代的。阿法狗是一个很多层的神经网络架构。版本只和开发调整了网络架构有关。

    和自己下棋就像是自己和自己全力玩游戏而已。产生的结果是可以作为样本的,自己下棋会让自己变得更强为啥呢?就是因为样本越来越大。
    zuotech
        16
    zuotech  
       2017-01-05 13:29:06 +08:00
    这个他们早就测过了,AlphaGo 联机版 VS 单机版 的胜率是 70% , 单台对战胜率应该是 50%咯
    BOYPT
        17
    BOYPT  
       2017-01-05 13:31:42 +08:00
    这不是测不测过的问题, AlphaGo 的下棋过程每一步全都是自己跟自己下,
    UnisandK
        18
    UnisandK  
       2017-01-05 13:33:52 +08:00
    @ycge234 阿法狗:你们不明白我为什么能下赢你们吗?因为你们是为了爱好在下棋,而我是为了生命啊。。
    BeSmile
        19
    BeSmile  
       2017-01-05 14:01:45 +08:00
    这注定是一场没有结局的战争,一盘棋下一个多世纪
    quericy
        20
    quericy  
       2017-01-05 14:13:16 +08:00
    @jmc891205
    @grayon AlphaGo 就变成了孙一峰....

    话说狗就快要打星际了,拭目以待
    ayconanw
        21
    ayconanw  
       2017-01-05 14:13:41 +08:00   ❤️ 2
    说胜率 50%的估计不懂围棋。
    目前黑棋贴 7.5 目(或 6.5 目)是人类的凭经验定的,然而人类的围棋经验还远远不足,所以这个贴目未必合适。
    alphago 自己跟自己下,要么是执黑胜率远超执白,这说明贴目贴少了;要么是执白胜率远超执黑,这说明贴目贴多了

    那么有没有一个贴目 x ,可以让 alphago 自己跟自己 50%呢?
    我认为是没有的,因为胜负只有两种状态。比较大可能是贴 x 目黑大概率胜,贴 x+0.5 (具体 0.几都无所谓,因为盘面目数只有整数)目白大概率胜
    stcasshern
        22
    stcasshern  
       2017-01-05 15:36:33 +08:00
    这就是学习过程。。。
    easyzhao
        23
    easyzhao  
       2017-01-05 16:03:15 +08:00
    阿法狗之所以这么厉害就是因为阿法狗一直在和阿法狗下棋
    ovear
        24
    ovear  
       2017-01-05 16:18:24 +08:00
    感觉阿法狗玩星际比人类有优势啊,精确到毫秒级别的运营。。
    hoythan
        25
    hoythan  
       2017-01-05 16:53:39 +08:00
    阿尔法狗每下一子都是跟自己博弈无数把后的最佳结果.
    malkavia
        26
    malkavia  
       2017-01-05 16:55:19 +08:00
    @ayconanw 不懂围棋的人表示 完全看不懂。。。
    ayconanw
        27
    ayconanw  
       2017-01-05 16:59:58 +08:00
    @malkavia 就是最后计算目数的时候,后下的人(白棋)要加 7.5 目,因为先下的人有优势
    malkavia
        28
    malkavia  
       2017-01-05 17:14:34 +08:00
    @ayconanw 这回懂了:) thx
    Cytion
        29
    Cytion  
       2017-01-05 17:30:25 +08:00 via Android
    @quericy 孙一峰:阿尔法狗你下面凉不凉快?啊?
    LeeCloud
        30
    LeeCloud  
       2017-01-05 17:54:41 +08:00
    就像高手过招,对视十分钟,一方卒。。。
    mortal
        31
    mortal  
       2017-01-05 18:55:09 +08:00
    @quericy 一家之主阿法狗,厚颜无耻阿法狗,为什么阿法狗打星际这么好?因为它是真瞎子啊(大雾
    chiv2
        32
    chiv2  
       2017-01-05 22:14:24 +08:00
    @ovear 会限制 APM 所以考的是战术选择?我觉得 AlphaGo 会搞出来很多奇葩战术。
    scriptB0y
        33
    scriptB0y  
       2017-01-05 22:40:13 +08:00
    会出现更厉害的阿发狗
    t6attack
        34
    t6attack  
       2017-01-05 23:01:54 +08:00
    3 年前, DeepMind 在自主增强学习算法上有了一个突破。这是“深度学习”领域,最接近 AI 的一个研究方向。
    其中一个令人振奋的成果,就是不去由程序员编写 传统的固定下棋算法。而是初始化一个空白的深度神经网络系统,然后让 AI 自我对弈,自己学会了下棋。之后通过无限自我对局,不断完善自身。

    DeepMind 的论文引起了 Google 的关注,随即以超过 4 亿美金的价格收购了 DeepMind 。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1295 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 17:55 · PVG 01:55 · LAX 09:55 · JFK 12:55
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.