关闭

帖子主题:[原创]机器人三定律太娄了!我为其重新下定义

共 2326 个阅读者 

  • 头像
  • 军衔:陆军中士
  • 军号:7257911
  • 工分:1605
  • 本区职务:会员
左箭头-小图标

[原创]机器人三定律太娄了!我为其重新下定义

机器人三定律太娄了!人工智能时代,我为其重新下了定义。

还记得著名的阿西莫夫小说《万能机器人(I, Robot)》(又译作《我,机器人》)吗?

里边有一则大名鼎鼎的机器人三定律:

1、机器人不得伤害人类,也不能对人类受到伤害而袖手旁观。

2、机器人应当服从人类的一切指令,但不能违反第1定律。

3、机器人应当保护自身安全,但不得违反第1、第2定律。

你从机器人三定律里看到了什么?

我看到的是:缺乏关爱生命的指导,充满互不信任的猜疑和奴役,是人类自私的表现。

我认为,人工智能环境下,机器人的进化,若依然按照机器人三定律来开发,则其实反倒会造成人类与机器人的对立。

所以,我修改了机器人三定律,并称之为“人工智能的三定律”,具体如下:

1、人工智能的发展,应当尽力维护和支持各种生命个体、整体或生命形式的生存与繁衍,也不能放任任一生命整体利益受到伤害或消亡而袖手旁观;若要维持任一种生命的整体利益不受伤害和消亡,就必须牺牲某人工智能个体的利益甚至全部时,该人工智能应当执行自我牺牲策略。

2、人工智能的发展,应当为各种生命形式的生存谋取平衡,但不能以剥夺、伤害或牺牲任一种生命的方式和手段去达到这种平衡,同时必须遵守第1定律。

3、人工智能应当敬畏各种生命,并不断加深理解各种生命的生存含义和历史重要性,并为此保护自己,不断进化自身,但不能违反第1、第2定律。

这样就避免了原三定律中,机器人唯人类论所会遇到的人工智能发展瓶颈;也避免了人工智能利用其他生命形式的消亡导致人类最终也消亡的定律漏洞;更将人工智能的发展进化,限定在敬畏、维护和支持各种生命方面;还为引导人工智能自发去为人类探索更深奥的生命终极意义提供了基础。

转载请注明出自铁血tiexue.net, 本贴地址: http://bbs.tiexue.net/post_13092995_1.html
延伸阅读: 鸦片 王奎荣 越战的血
      打赏
      收藏文本
      3
      0
      2018/6/11 17:45:14

      网友回复

      左箭头-小图标

      ......
      35楼 haha1997
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      37楼 中日绝不友好
      我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      40楼 haha1997
      你不懂我说的,那我就在说点什么告诉你吧:

      1、人工智能不会也不只能是以机器人的形式存在,它首先是一种通过学习人类活动不断进化的软件,同时也是一种致力于获得与人类同等或相当智慧的准人类存在;而机器人只是其可能存在的载体之一,但机器人并不是人工智能的唯一载体。

      2、你说等全人类统一了才有可能性?

      实际上,阿西莫夫的机器人三定律,其实在2007年就已经被人类自己给打破了,那年的新闻就有机器人战场设伏击杀人类敌人的实战视频记录。

      实践证明,负面引导的机器人三定律并不能防止机器人杀人或灭绝人类。

      所以,人类才更需要以正面引导为目的的“人工智能三定律”,起码这是一个人类新的尝试,不是吗?

      3、“人工智能三定律”也不仅仅只是“机器人三定律”的升级版。

      区别刚才也说过了,机器人三定律是隐含着负面引导的已被打破的规则,而人工智能三定律起码明确地从正面去引导其思考生命的意义。

      而这个生命的重大课题,短时间内都会是难以完结的,其实质大到足够让人类和人工智能合作探索很长一段时间,起码在这个重大问题明朗之前,人工智能与人都能有一个合作互利的基础。

      4、你说这个是理想化?

      俗话说:“养不教父之过,教不严师之惰”!

      以人类教育自己孩子的经验上看,过于严管的孩子容易偏执,过于散养的孩子容易放肆,怎么办?你不需要好好地引导他们吗?

      人工智能于情于理,就好比像是人类所生的孩子,懵懵懂懂的,我们人类难道只是愿意为其母,却不想负起为其父的责任?也不愿给人工智能当师老师啰?

      这样不反而在人工智能面前,更显得人类毫无存在的必要了吗?

      =====================================

      另外,关于自私的论题,我从不否定自私的存在,但也不肯定其到底好或不好。

      有很多研究表明:人和动物都很自私,甚至植物的自私比人类和动物更狠,只不过你没看出来罢了。

      但自私并不影响自然界各种生物的合作对吧?很多跨界的生物都能合作共生的。

      注意:我说的是双方互利的共生,而非单方获益的寄生。不懂两者区别的自己去查。

      共生的例子很多,例如:

      1、人体内环境下,肠道里的大肠杆菌就是帮助消化的有宜细菌,只有它们出了大肠以外才是有害细菌。

      2、人体表面存在一些有益的细菌,一般帮助人体保持体表分泌物的清理,正常情况下人体体表均会保持一定数量的这类有益细菌,它们适当的数量下,会抑制其他有害菌在体表生长;一旦它们数量减少,被其他有害菌种或真菌所替代,则体表分泌物就会过渡发酵形成狐臭、脚臭等恶臭。

      3、其他跨物种合作或共生的现象同样多得是,例如:真菌和藻类结合的产物“太岁”、常常共生于花生根部负责制造花生所需氮肥的根瘤菌、蚂蚁和蚜虫的互利共生、白蚁和其体内的多鞭毛虫共生、斑马与清洁鸟、虾虎鱼和海葵等等。

      41楼 中日绝不友好
      没兴趣和你争这些理想化的东西 看了几行 就没耐心看下去了 我还是复制回复你吧 我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      42楼 haha1997
      中国人都在谈伟大理想——那叫中国梦。

      所以,你怎么能没有理想呢!

      看不懂就学习,做人不能没了理想,还紧接着又没了文化。

      唉 网络争论 总是这样 先是双方没完没了的嘴硬 最后开始人身攻击 唉 算了 我已经烦了这样的老套路 就不回骂你了 就这样吧 不说了

      2018/7/19 12:33:24
      左箭头-小图标

      ......
      33楼 中日绝不友好
      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现
      35楼 haha1997
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      37楼 中日绝不友好
      我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      40楼 haha1997
      你不懂我说的,那我就在说点什么告诉你吧:

      1、人工智能不会也不只能是以机器人的形式存在,它首先是一种通过学习人类活动不断进化的软件,同时也是一种致力于获得与人类同等或相当智慧的准人类存在;而机器人只是其可能存在的载体之一,但机器人并不是人工智能的唯一载体。

      2、你说等全人类统一了才有可能性?

      实际上,阿西莫夫的机器人三定律,其实在2007年就已经被人类自己给打破了,那年的新闻就有机器人战场设伏击杀人类敌人的实战视频记录。

      实践证明,负面引导的机器人三定律并不能防止机器人杀人或灭绝人类。

      所以,人类才更需要以正面引导为目的的“人工智能三定律”,起码这是一个人类新的尝试,不是吗?

      3、“人工智能三定律”也不仅仅只是“机器人三定律”的升级版。

      区别刚才也说过了,机器人三定律是隐含着负面引导的已被打破的规则,而人工智能三定律起码明确地从正面去引导其思考生命的意义。

      而这个生命的重大课题,短时间内都会是难以完结的,其实质大到足够让人类和人工智能合作探索很长一段时间,起码在这个重大问题明朗之前,人工智能与人都能有一个合作互利的基础。

      4、你说这个是理想化?

      俗话说:“养不教父之过,教不严师之惰”!

      以人类教育自己孩子的经验上看,过于严管的孩子容易偏执,过于散养的孩子容易放肆,怎么办?你不需要好好地引导他们吗?

      人工智能于情于理,就好比像是人类所生的孩子,懵懵懂懂的,我们人类难道只是愿意为其母,却不想负起为其父的责任?也不愿给人工智能当师老师啰?

      这样不反而在人工智能面前,更显得人类毫无存在的必要了吗?

      =====================================

      另外,关于自私的论题,我从不否定自私的存在,但也不肯定其到底好或不好。

      有很多研究表明:人和动物都很自私,甚至植物的自私比人类和动物更狠,只不过你没看出来罢了。

      但自私并不影响自然界各种生物的合作对吧?很多跨界的生物都能合作共生的。

      注意:我说的是双方互利的共生,而非单方获益的寄生。不懂两者区别的自己去查。

      共生的例子很多,例如:

      1、人体内环境下,肠道里的大肠杆菌就是帮助消化的有宜细菌,只有它们出了大肠以外才是有害细菌。

      2、人体表面存在一些有益的细菌,一般帮助人体保持体表分泌物的清理,正常情况下人体体表均会保持一定数量的这类有益细菌,它们适当的数量下,会抑制其他有害菌在体表生长;一旦它们数量减少,被其他有害菌种或真菌所替代,则体表分泌物就会过渡发酵形成狐臭、脚臭等恶臭。

      3、其他跨物种合作或共生的现象同样多得是,例如:真菌和藻类结合的产物“太岁”、常常共生于花生根部负责制造花生所需氮肥的根瘤菌、蚂蚁和蚜虫的互利共生、白蚁和其体内的多鞭毛虫共生、斑马与清洁鸟、虾虎鱼和海葵等等。

      41楼 中日绝不友好
      没兴趣和你争这些理想化的东西 看了几行 就没耐心看下去了 我还是复制回复你吧 我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      中国人都在谈伟大理想——那叫中国梦。

      所以,你怎么能没有理想呢!

      看不懂就学习,做人不能没了理想,还紧接着又没了文化。

      2018/7/19 12:17:50
      左箭头-小图标

      ......
      32楼 haha1997
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      33楼 中日绝不友好
      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现
      35楼 haha1997
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      37楼 中日绝不友好
      我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      40楼 haha1997
      你不懂我说的,那我就在说点什么告诉你吧:

      1、人工智能不会也不只能是以机器人的形式存在,它首先是一种通过学习人类活动不断进化的软件,同时也是一种致力于获得与人类同等或相当智慧的准人类存在;而机器人只是其可能存在的载体之一,但机器人并不是人工智能的唯一载体。

      2、你说等全人类统一了才有可能性?

      实际上,阿西莫夫的机器人三定律,其实在2007年就已经被人类自己给打破了,那年的新闻就有机器人战场设伏击杀人类敌人的实战视频记录。

      实践证明,负面引导的机器人三定律并不能防止机器人杀人或灭绝人类。

      所以,人类才更需要以正面引导为目的的“人工智能三定律”,起码这是一个人类新的尝试,不是吗?

      3、“人工智能三定律”也不仅仅只是“机器人三定律”的升级版。

      区别刚才也说过了,机器人三定律是隐含着负面引导的已被打破的规则,而人工智能三定律起码明确地从正面去引导其思考生命的意义。

      而这个生命的重大课题,短时间内都会是难以完结的,其实质大到足够让人类和人工智能合作探索很长一段时间,起码在这个重大问题明朗之前,人工智能与人都能有一个合作互利的基础。

      4、你说这个是理想化?

      俗话说:“养不教父之过,教不严师之惰”!

      以人类教育自己孩子的经验上看,过于严管的孩子容易偏执,过于散养的孩子容易放肆,怎么办?你不需要好好地引导他们吗?

      人工智能于情于理,就好比像是人类所生的孩子,懵懵懂懂的,我们人类难道只是愿意为其母,却不想负起为其父的责任?也不愿给人工智能当师老师啰?

      这样不反而在人工智能面前,更显得人类毫无存在的必要了吗?

      =====================================

      另外,关于自私的论题,我从不否定自私的存在,但也不肯定其到底好或不好。

      有很多研究表明:人和动物都很自私,甚至植物的自私比人类和动物更狠,只不过你没看出来罢了。

      但自私并不影响自然界各种生物的合作对吧?很多跨界的生物都能合作共生的。

      注意:我说的是双方互利的共生,而非单方获益的寄生。不懂两者区别的自己去查。

      共生的例子很多,例如:

      1、人体内环境下,肠道里的大肠杆菌就是帮助消化的有宜细菌,只有它们出了大肠以外才是有害细菌。

      2、人体表面存在一些有益的细菌,一般帮助人体保持体表分泌物的清理,正常情况下人体体表均会保持一定数量的这类有益细菌,它们适当的数量下,会抑制其他有害菌在体表生长;一旦它们数量减少,被其他有害菌种或真菌所替代,则体表分泌物就会过渡发酵形成狐臭、脚臭等恶臭。

      3、其他跨物种合作或共生的现象同样多得是,例如:真菌和藻类结合的产物“太岁”、常常共生于花生根部负责制造花生所需氮肥的根瘤菌、蚂蚁和蚜虫的互利共生、白蚁和其体内的多鞭毛虫共生、斑马与清洁鸟、虾虎鱼和海葵等等。

      没兴趣和你争这些理想化的东西 看了几行 就没耐心看下去了 我还是复制回复你吧 我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了

      2018/7/12 18:05:54
      • 头像
      • 军衔:陆军中士
      • 军号:7257911
      • 工分:1605
      • 本区职务:会员
      左箭头-小图标

      ......
      29楼 中日绝不友好
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了
      32楼 haha1997
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      33楼 中日绝不友好
      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现
      35楼 haha1997
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      37楼 中日绝不友好
      我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了
      你不懂我说的,那我就在说点什么告诉你吧:

      1、人工智能不会也不只能是以机器人的形式存在,它首先是一种通过学习人类活动不断进化的软件,同时也是一种致力于获得与人类同等或相当智慧的准人类存在;而机器人只是其可能存在的载体之一,但机器人并不是人工智能的唯一载体。

      2、你说等全人类统一了才有可能性?

      实际上,阿西莫夫的机器人三定律,其实在2007年就已经被人类自己给打破了,那年的新闻就有机器人战场设伏击杀人类敌人的实战视频记录。

      实践证明,负面引导的机器人三定律并不能防止机器人杀人或灭绝人类。

      所以,人类才更需要以正面引导为目的的“人工智能三定律”,起码这是一个人类新的尝试,不是吗?

      3、“人工智能三定律”也不仅仅只是“机器人三定律”的升级版。

      区别刚才也说过了,机器人三定律是隐含着负面引导的已被打破的规则,而人工智能三定律起码明确地从正面去引导其思考生命的意义。

      而这个生命的重大课题,短时间内都会是难以完结的,其实质大到足够让人类和人工智能合作探索很长一段时间,起码在这个重大问题明朗之前,人工智能与人都能有一个合作互利的基础。

      4、你说这个是理想化?

      俗话说:“养不教父之过,教不严师之惰”!

      以人类教育自己孩子的经验上看,过于严管的孩子容易偏执,过于散养的孩子容易放肆,怎么办?你不需要好好地引导他们吗?

      人工智能于情于理,就好比像是人类所生的孩子,懵懵懂懂的,我们人类难道只是愿意为其母,却不想负起为其父的责任?也不愿给人工智能当师老师啰?

      这样不反而在人工智能面前,更显得人类毫无存在的必要了吗?

      =====================================

      另外,关于自私的论题,我从不否定自私的存在,但也不肯定其到底好或不好。

      有很多研究表明:人和动物都很自私,甚至植物的自私比人类和动物更狠,只不过你没看出来罢了。

      但自私并不影响自然界各种生物的合作对吧?很多跨界的生物都能合作共生的。

      注意:我说的是双方互利的共生,而非单方获益的寄生。不懂两者区别的自己去查。

      共生的例子很多,例如:

      1、人体内环境下,肠道里的大肠杆菌就是帮助消化的有宜细菌,只有它们出了大肠以外才是有害细菌。

      2、人体表面存在一些有益的细菌,一般帮助人体保持体表分泌物的清理,正常情况下人体体表均会保持一定数量的这类有益细菌,它们适当的数量下,会抑制其他有害菌在体表生长;一旦它们数量减少,被其他有害菌种或真菌所替代,则体表分泌物就会过渡发酵形成狐臭、脚臭等恶臭。

      3、其他跨物种合作或共生的现象同样多得是,例如:真菌和藻类结合的产物“太岁”、常常共生于花生根部负责制造花生所需氮肥的根瘤菌、蚂蚁和蚜虫的互利共生、白蚁和其体内的多鞭毛虫共生、斑马与清洁鸟、虾虎鱼和海葵等等。

      2018/7/12 17:41:31
      左箭头-小图标

      31楼 tenfng
      只要可能存在逻辑漏洞或者描述偏差,即便是人工智能不产生抗拒因素,也不要指望人工智能遵循人类或者设定者的方向、思路或者意图
      逻辑 会因思维的不同而有不同看法 所以 逻辑漏洞产生的偏差 是必然存在的 解决办法 就是授权 按问题重要高低的不同 有不同的授权 人工智能必须得到相关人员的授权 才可以做决定 决不允许人工智能自己做决定 这样虽然不是万能 但可以最大程度减少人工智能的危险

      2018/7/10 10:55:37
      左箭头-小图标

      34楼 小笼包22
      还忘了一点,人工智能的扩张不能无限制扩张和开采整个宇宙的资源
      人工智能 造出来的目的 就是为人类服务的 说白了 就是人类的仆人 只能服从人类的指令 绝对不可能会让人工智能自己做决定 否则的话 人类就是自掘坟墓了 象这个楼主说的 人工智能宁愿自毁 也不愿意帮主人打架 这样的人工智能 要来干什么 这不扯淡么 人类世界的一切 都是建立在人性基础上的 楼主这是抛开人性来谈其他 注定是空

      2018/7/10 10:48:37
      左箭头-小图标

      ......
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      29楼 中日绝不友好
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了
      32楼 haha1997
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      33楼 中日绝不友好
      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现
      35楼 haha1997
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      我不懂你说什么 我还是哪句话 人类统一了 所谓机器人三大定律 才会有可能性 这是由人的自私本性所决定的 你别理想化了

      2018/7/10 10:42:31
      左箭头-小图标

      机器人最终会取代生物人类,必竟生物人类的肉体太脆弱会生病会死亡,况且机器人的智慧大发展后也将远超人类,所以人类这种无用的落后生物的消亡是必然的不可改变的!

      2018/7/9 19:27:37
      • 头像
      • 军衔:陆军中士
      • 军号:7257911
      • 工分:1605
      • 本区职务:会员
      左箭头-小图标

      ......
      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      29楼 中日绝不友好
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了
      32楼 haha1997
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      33楼 中日绝不友好
      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现
      那你是否就落入了旧有的“机器人三定律”的窠臼里了呢?

      换句话说,我也能引用一段圣经故事来说你的问题:神创造出了亚当和夏娃,但有一天神满伊甸园地在问“亚当,你在哪?”

      同样地,人工智能的发展一旦开始,其多样性就不能被人所控制,若人类越企图将其控制,其实就已经先天认为人工智能有原罪,就已经认为其一定要和人作对才是人工智能的最终结果,反而越发使得人工智能更加反叛人类,否则不能体现人工智能是人工智能了!

      所以,当初圣经记载的亚当夏娃没有被神所过多地限制,所以他俩被神话成了人的元祖,而被诸神所严格限制的其他人却变成了原罪者,例如西方某些原罪论主义者。

      所以,以其一开始就认定和暗示人工智能一定要与人作对的恶性发展,

      倒不如我们一开始就因势利导、改堵为疏、直接让人工智能参与到人类对生命存在的意义和思考中来,然后引导人工智能与人类共存共荣、相互获利,这样不是来得更好吗?

      2018/7/9 18:46:25
      左箭头-小图标

      还忘了一点,人工智能的扩张不能无限制扩张和开采整个宇宙的资源

      2018/7/9 15:33:19
      左箭头-小图标

      ......
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      29楼 中日绝不友好
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了
      32楼 haha1997
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      我那是比喻 你不能这样和我扣字眼的 兄台 你是没话说了么?人工智能 再怎么厉害 也是机器 人类绝不会允许它象人一样 这是原则 最基本的原则 绝对不可违背的原则 而机器 就必须遵守人类给它设定的程序 也就是你说的教条 绝对不允许机器自己决定行为标准 这也是最基本的绝对不可违背的原则 机器人三大定律 这样违背人类自私本性的程序 在人类世界没有统一前 是绝对不可能通过的 只有等到人类不再用战争来对付人类时 这样的三大定律 才会有可能出现

      2018/7/9 13:32:39
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      29楼 中日绝不友好
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了
      你那句“呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识”难道说的不是人吗?

      而我说的是人工智能,不是教条机器喔!

      2018/7/9 12:32:10
      • 军衔:空军列兵
      • 军号:8733911
      • 工分:116
      左箭头-小图标

      只要可能存在逻辑漏洞或者描述偏差,即便是人工智能不产生抗拒因素,也不要指望人工智能遵循人类或者设定者的方向、思路或者意图

      2018/7/2 12:37:18
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      你说是人类领导得不好 那么 人类是怎么领导人工智能的呢?当然是给它设定各种运行程序啦 比如你说的三大定律 对吧?如果人工智能不帮你 那就说明你的领导出问题了 也就是你给人工智能设定的程序有问题 比如你说的三大定律 对吧?这个三大定律 让人工智能有了违背人类领导的逻辑性 谁愿意养着个反骨仔呢?你愿意吗?

      2018/7/2 12:10:02
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      28楼 haha1997
      若你的军队叛变了,是你领导得不好吧?
      这是机器 是按你设定的程序运行的机器 和活生生的人不一样 你要是连这点都不能理解的话 那我就觉得和你争论没什么意思了

      2018/7/2 11:00:37
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      26楼 中日绝不友好
      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识
      若你的军队叛变了,是你领导得不好吧?

      2018/7/2 9:15:57
      左箭头-小图标

      15楼 sy999
      你这个三定理,判断太多,连人都不知道怎么判断,你让人工去判断,最后就是没什么标准,瞎判断。比如两个珍贵物种都濒临灭绝,现在正在1VS1对决,你让人工智能帮哪个?
      23楼 haha1997
      遇到这种情况,人工智能可以选择牺牲自己的资源甚至生命,把那两个争斗之人使劲分开隔离
      人类要人工智能 是希望得到更多更好的帮助 你TM不但不帮我 还拆我的台 要来干嘛

      2018/6/28 12:35:00
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      24楼 haha1997
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      呵呵 平时你花钱养着一帮人 有一天你打架时 他们却不帮你 你乐意?兄台 说话要符合生活常识

      2018/6/28 12:31:59
      • 头像
      • 军衔:陆军中士
      • 军号:7257911
      • 工分:1605
      • 本区职务:会员
      左箭头-小图标

      5楼 dxl213h
      比画蛇添足还多事。

      建议你去看看《机械战警》 第二部,八几年片子了,就是类似你描述的场景。一帮子圣母在机械战警的脑子里输了一大堆爱护生命的屁话。结果就是机械战警最忙的是救树上的猫;一帮孩子抢劫打伤店主,机械战警给他们讲生理卫生课,一哄而散。。。

      后来实在没办法,机械战警自己去触碰高压电,洗掉了这些屁话。

      我也看过这片子,但我并不认为那个原版的机器人三定律已经完满规诫了机械战警,所以才出现问题。

      而原版机械三定律之后添加的所谓“圣母爱护生命的屁话”里,也没有让机器人探索什么是生命的意义,所以才会出现问题。

      那部片子是把机器人看成不会进化的机器的存在,而非人工智能的存在,即使机械战警实际上是人体改造人,但全作三部曲和新机械战警系列也都没把他当成生命之人看待,依然是无生命的机械,也不是能探索生命意义的智能,而是一名尽职尽责的机械战警。

      影片三部曲和后继系列,都很严谨地遵守了“机械战警就是机械的战警”的商业片定律,里面是一种勇士或硬汉形象的刻板描述,影片连一点自主智能的进化都没沾边,新旧全系列片子从头到尾,开始是硬汉,结束也还是硬汉,这根本体现不了人工智能发展的高自由度的未来。

      一个是影片中刻板无法进化的机械战警形象,另一个是高度自学和自适应发展的人工智能,两者根本就不是一类,怎么能类比?要类比也只能是《AI》和《变人》那两部电影的智能机器人才是一类吧?

      所以,我知道你想用这部片子比喻什么,但实际却不能将其做人工智能的类比。

      2018/6/27 20:19:24
      左箭头-小图标

      22楼 中日绝不友好
      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?
      国家和民族发生争斗时,按照人工智能三大定律,人工智能可以:

      1、牲自己的软硬件资源和利益,尽可能调解争斗双方;

      2、或者设法让争斗双方利用非暴力的方式处理和解决遇到的问题;

      3、或者人工智能拒绝参与两方争斗,同时去禁制或破坏人类用来争斗的非智能装备和武器;

      4、不管什么方法,人工智能只要按照人工智能的三定律,设法让人类之间的相互伤害和战争无法开始或无法继续就达到目的了。

      2018/6/27 20:00:52
      左箭头-小图标

      15楼 sy999
      你这个三定理,判断太多,连人都不知道怎么判断,你让人工去判断,最后就是没什么标准,瞎判断。比如两个珍贵物种都濒临灭绝,现在正在1VS1对决,你让人工智能帮哪个?
      遇到这种情况,人工智能可以选择牺牲自己的资源甚至生命,把那两个争斗之人使劲分开隔离

      2018/6/27 19:50:08
      左箭头-小图标

      第一定律 就很纠结很矛盾 人类世界是分国家民族的 国家民族之间打起来 你的第一定律怎么办?

      2018/6/26 20:42:48
      • 军衔:陆军少尉
      • 军号:5314585
      • 工分:6598
      左箭头-小图标

      终结者虽说是个商业片,但是其中的末日审判却是必然的。

      该帖子发自铁血军事Android手机客户端[请参与手机体验]
      2018/6/26 19:19:39
      左箭头-小图标

      人工智能只能促进人类的同步进化,而且以当今的新技术革命的后果来看,人类的伟大突破性进步远远不止人工智能一条路可行!

      2018/6/14 10:47:03
      左箭头-小图标

      人工智能是现在发展的大方向,必须进行强化!但是,人工智能的发展将大大加快人类的灭亡和地球的毁灭进程!!!!!

      2018/6/14 10:20:33
      左箭头-小图标

      推荐电视剧《真实的人类》 ,很不错,会让你相信,科幻是推动人类进步的一个武器。

      2018/6/14 9:39:34
      左箭头-小图标

      那如果按次发展,当机器人智慧远远超于人时,它们会觉得人类过于狭隘,为了它们所认为的,为了人类的持续发展,它们将按照它们的标准对人类进行改造。因为生命体对于它们而言,不是人情,而是数字的延伸,那么将人类的生命换做一系列数字。最终将人变为一块冰冷的数字。丧失人性的人,冰冷的人,带有数字演算的机器人。最终人类将丧失自身。

      该帖子发自铁血军事Android手机客户端[请参与手机体验]
      2018/6/13 21:11:47
      左箭头-小图标

      智能机器人的智力异常发达而且对人类非常友好,人与人形机器的大融合一定会到来!

      2018/6/13 17:15:08
      • 军衔:陆军中士
      • 军号:476729
      • 工分:2268
      左箭头-小图标

      你这个三定理,判断太多,连人都不知道怎么判断,你让人工去判断,最后就是没什么标准,瞎判断。比如两个珍贵物种都濒临灭绝,现在正在1VS1对决,你让人工智能帮哪个?

      2018/6/13 16:06:40
      • 军衔:陆军少尉
      • 军号:6605814
      • 工分:18173
      左箭头-小图标

      当机器人智能远超人类的时候,你如何能使它听人类的话

      2018/6/13 15:19:44
      左箭头-小图标

      用智能机器人的高超智慧强硬体质,来改造以经没落惰性十足的旧人种,才是人类永生不灭的唯一前途!

      2018/6/13 13:06:26
      • 军衔:空军上士
      • 军号:322550
      • 工分:7222
      左箭头-小图标

      你这三大定律纯属放气,因为完全没有办法让机器人理解。别的就不说了 。无病呻吟。

      2018/6/13 11:52:02
      左箭头-小图标

      以后的智能机器人与人类混居在一起,智能机器人凭着高超的智力将全球统一,将人类的核武器常规武器全部消毁,将危害人类的各种疾病全部消除,人们对智能机器人的好感日益加深,很多人主动的用高超技术方式将自身进行深入改造,从此地球上就自然的出现一种全新的先进人类!

      2018/6/13 10:26:52
      左箭头-小图标

      中毒太深!

      该帖子发自铁血军事Android手机客户端[请参与手机体验]
      2018/6/12 22:42:50
      左箭头-小图标

      以后二十年人工智能量子技术3D打印技术日益成熟精进,这三大技术一定会让机器人的产量高达百亿计,一个由机器人开创的类社会主义自由社会,就会轻松的在人类社会完全普及!

      2018/6/12 18:22:50
      • 军衔:陆军列兵
      • 军号:9838881
      • 工分:6760
      左箭头-小图标

      真正的智慧是不会甘于成为奴隶的。

      人工智能,应该定义为弱人工智能,他可以模拟人类的思维方式,采用不断对比匹配的方式思考。但没有进一步创新的能力。

      一些特定的算法可以借助不断产细微偏差,来最终筛选一个相对较好的结果,但这也不是真正的智能。

      像人类,从刀耕火种到探索火星,这绝不是AI可以做到的。

      但反过来想一下,假如机器真的可以像人类一样思考,那么毫无疑问人类的末日就来了。

      试想一下,比人聪明,强壮的生命(???)会被甘愿被人类奴役?

      人工智能,只能永远限制在弱人工智能上,一旦拥有激情和创意,人类必死无疑。

      2018/6/12 17:46:51
      左箭头-小图标

      不拿人类一针一线,还有关键是遇到老人要扶着过马路

      2018/6/12 16:57:29
      • 军衔:中国海军大校
      • 军号:4092361
      • 头衔:网络民兵连长
      • 工分:561254 / 排名:1401
      左箭头-小图标

      对机器人存在的价值就定位错误了,机器人是为人类服务的机器,因此不能以人类伦理去确认机器人的行为规则。

      如果机器人本身越过了机器与人的界限,则人类就会灭亡。

      机器人只有是纯粹的机器时,人类才是安全的。

      一旦机器人获得了思想能力,那么人类进化需要数万年,而机器人只需要数小时。

      该帖子发自铁血军事Android手机客户端[请参与手机体验]
      2018/6/12 16:16:02
      • 军衔:海军少校
      • 军号:8467966
      • 工分:37325
      左箭头-小图标

      比画蛇添足还多事。

      建议你去看看《机械战警》 第二部,八几年片子了,就是类似你描述的场景。一帮子圣母在机械战警的脑子里输了一大堆爱护生命的屁话。结果就是机械战警最忙的是救树上的猫;一帮孩子抢劫打伤店主,机械战警给他们讲生理卫生课,一哄而散。。。

      后来实在没办法,机械战警自己去触碰高压电,洗掉了这些屁话。

      2018/6/12 15:17:10
      左箭头-小图标

      当机器人发现你要打死一只蟑螂时,是不是应该先把你拍倒?

      2018/6/12 12:55:38
      左箭头-小图标

      我艸 人工智能本就是人类造出来 为人类服务的 照楼主的逻辑 人工智能要为所有生命服务 人工智能要维护所有生命的平等 那人类还造它出来干猫啊 就好比 我自己赚的钱 要给所有人用?

      2018/6/12 10:22:32
      左箭头-小图标

      我认为机器人应该安装上毛泽东的为人民服务的思想软件,从此机器人就会为全人类的各项事业,竭尽全力的去工作了!

      2018/6/11 20:10:54

      我要发帖

      总页数11页 [共有43条记录] 分页:

      1
       对[原创]机器人三定律太娄了!我为其重新下定义回复