机械社区

 找回密码
 注册会员

QQ登录

只需一步,快速开始

搜索
楼主: 老鹰

机器学习有多厉害,工程师这饭碗能保多久

[复制链接]
发表于 2018-7-31 10:43:16 | 显示全部楼层
机器人永远都是机器,物质决定意识,意识是生命体对客观世界能动的反应,机器人的反映能力取决于设计者的思维能力,而机器人自己的行为判断能力都在一定的程序下进行,是一种运算模式,人类的大脑开发量连十分之一都不到,在这种背景下机器人的智慧可能会比一般人的高,但是能人背后有能人,这就是人定胜天的本钱。
回复 支持 反对

使用道具 举报

发表于 2018-7-31 11:48:59 | 显示全部楼层
为什么说人工智能将是人类灾难?* Q6 Z& [7 E6 b' E6 h; F

; |9 u8 Z/ F0 |- ^+ @3 D2017-01-08 10:06:12栏目:默认栏目 1664 2 24
! n3 [2 K; V3 V伴随着阿尔法狗彻底完虐人类顶尖围棋手,关于人工智能的讨论再入高潮。对于此次人工智能潮流,根据有些网站的调查,多数人是持欢迎的态度。对此,本人认为,应该对人工智能保持高度的警惕,弄不好,这就是开启了潘多拉魔盒,将导致人类的最终毁灭。
" d* J0 E  F( {2 F9 B, E; P6 x" E9 s! a" \8 U* x% }3 d
著名的英国剑桥大学物理学家霍金说:“我认为,对于一个生物大脑和和一台计算机所能取得成就来说,其间不存在深刻的差别。所以从理论上来说,计算机可以效仿人类的智能,并超过人类的智能。”* h3 i3 r& n- _: Y4 N4 f' l

% ?. m) Z6 F6 H3 K5 O霍金认为,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,“未来智能中心”的一个简单的使命就是弄清楚人工智能未来是不是会毁灭人类。+ v& F" e9 ]: n4 Z

/ B4 O& Y3 ?+ H9 X6 S) F霍金教授的看法应该被高度重视,因为目前已经有人在研究“生物电脑”,尽管他们只是因为生物可降解的属性,但是:“人工智能+智能生物自我繁殖”,难道不正是霍金教授所说的“一个生物大脑和和一台计算机所能取得成就来说,其间不存在深刻的差别”?何况有人已经开始打破生物大脑和计算机的区别!
5 q, B8 Y1 V" e
& j8 j; L* m6 ^5 o- D$ c# Z; x1 {5 R9 s' x3 W: t
首先,智能上的优越是人类成为地球主宰的唯一终极依靠。人类的体能不如狗熊、犀牛、大象,速度不如猎豹或鹿马狼,嗅觉不如狗,听觉不如蝙蝠……唯一超越地球上这些动物的,就是智力,也正因为智力的优势,人类做了地球的主人。按照这一被人类自己已经证明了的“智力决定论”,当然谁的智力最优秀,或说谁智力能超过人类,谁就是地球的主人。2 J; \% f( F3 _0 q  S' y: o
% ?* p* h1 v# @
其次,机器的智力在围棋上超过人类,无论怎样评估其严重性都不过分。本人作为业余围棋爱好者,多年之前就和围棋软件下过棋,那时如果我完全按照围棋里的“定式”下,是比不过软件的,因为软件永远没有记忆错误。但是当我脱离“定式”,哪怕下了一着人人皆知的百分之百的“臭招”,围棋软件立即就找不着北了,于是软件肯定就开始乱下了,自己就能赢了软件。但是现在,这阿尔法狗已经战胜了几乎全部人类现有高手,肯定是已经克服了一招一式必须暴力计算的弱点!我深知,围棋的特点就是在所谓“大局观”上的虚拟性、笼统性、概括性,也就是不精确性,这正是需要精确计算的机器最不足的地方,但是今天,被阿尔法狗的设计者用策略网络和机器自动更新策略(即机器自我学习功能)解决了,这和当年的深蓝用暴力计算战胜国际象棋世界冠军是完全不可同日而语的!换句话说,就是机器可以自己学习了!这不就是每一代人从小到大干的主要事情吗?况且机器如果掌握了学习能力,肯定可以比人类干得好!因为机器是没有遗忘的!它学习过的东西都是过目不忘!
6 h  \8 |: Q; v$ X7 s) j! r3 ^$ ~% U7 [0 H" d
智力是学习的结果,机器学会了学习,其智力的突飞猛进就可以期待了。有了无与伦比的学习能力、无与伦比的记忆能力、无与伦比的计算能力,加上无与伦比的不知疲倦的体力,机器将超过人类还是什么不可想象的事吗?& C' F" s& ]- k. h$ T7 A! q& q; L! g
; h: f2 W* i! p3 g' Y7 ]
最后结论自然就出来了——
/ V8 X3 g- i, m& C6 X
# \! H. w! i; c地球上的既定法则是智力决定控制权,智力决定地球归谁控制,机器的智力如果超过人类,那地球最终自然要归属于机器!而一旦放任机器智能的自由发展,由于机器相对于人类的上述优势(学习、记忆、计算、体力等),人类只能甘拜下风!再说,一个各项能力远超人类的“机器学霸”,还不具有人类的情感(主要指人类中高尚的部分情感)——主要是没有怜悯之心,智能机器能做出什么来?(又有人会说可以给机器加上“高尚情感”!问题在于,你可以去加“高尚情感”,一定专门有人要加“无恶不作”!这样,邪恶机器其实无穷无尽的!那时的恐怖袭击完全由机器人就可以完成!而且会比人类中的恐怖份子更残忍!)8 R9 t" Q; j2 `
, Q6 O2 W  l2 e
这还不是非常可怕的前景吗?美国科幻电影里表现过很多次的机器与人类的战争已经近在咫尺!那些美国科幻电影简直就是提前模拟的人机战争的预演教育片!" ?+ l1 j% Q( n& H: w+ }

8 I2 T, w4 }8 ]& t7 m  y5 _早晚有一天,人类必须坐到一起,郑重讨论是否该赋予机器(本人所说的机器即人工智能,即智能机器)选举权的问题!但机器的数量却是几乎可以无限生产的!这样一来,人类连数量上都输掉了,权利还能不拱手让出吗?那样,人类只能作为机器的奴隶了。" {. F  _& Z8 I/ h
$ b6 w9 v% u1 k! v! v/ i7 k
有人说人类可以提前对人工智能做一些限制,可以签一些全球性的协议。那我们看看原子弹技术的扩散历程吧!至今,联合国多次制裁协议都不能阻止狂热的朝鲜追求核武器的努力!何况主要个人技术为主的人工智能的扩散呢?地球上永远有一些狂人是不受正常人控制的,这就象精神病人,至今人类都不能控制精神病人的发病、不能根治此病,更别提个别狂人对人工智能的追求!这些在美国的科幻电影中也早就警告过了!何况,很可能与大家的愿望相反,人工智能极可能被有些国家首先用于战争!以笔者有限的战争知识,排雷机器人的智能化就将远远超过人类,试想,一个配合X光透视的机器人排雷;是人类可比的吗?比人类中的恐怖份子更残忍的机器人恐怖袭击加上超越的智力,是人类阻止的了的吗?这些,难道不应该提前预防吗?
9 B  M9 q2 {. f! i, O5 d& g9 {7 p' o( h) ~7 ~; y5 M
总之,我们知道人工智能的全面普及已经不可避免,很可能在几十年内实现。但是对人工智能的危害很多人还没有足够的警惕,他们并不知道人类正在玩儿火。就象霍金所说的:“强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情”。如果多数人对此没有足够的警惕,人类的毁灭就等不到太阳熄火的那一天了!
, Q0 j" }- r+ F$ V
5 ?; M# n. j: y' z# X) S7 S1 N9 K& ^
回复 支持 2 反对 0

使用道具 举报

发表于 2018-7-31 13:04:01 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

发表于 2018-7-31 18:11:41 | 显示全部楼层
人工智能发展好快 啊
回复 支持 反对

使用道具 举报

发表于 2018-8-1 08:11:21 | 显示全部楼层
目前的所谓人工智能,仍然还是停留在--机器按照人类的指令执行,想要机器自己有思想,目前的技术根本无法实现
回复 支持 反对

使用道具 举报

发表于 2018-8-1 09:27:13 | 显示全部楼层
感觉好像不久的将来所有人都会失业了
回复 支持 反对

使用道具 举报

发表于 2018-8-1 11:29:10 | 显示全部楼层
不是高级工程师 发表于 2018-8-1 09:27
% }9 y: P% k5 E1 m感觉好像不久的将来所有人都会失业了
" Q7 F: r4 f" D# I6 u
每一次革命都伴随着一部分人的淘汰和一部分人的崛起,唯有先接受再不断学习
- ?* v" @* k; \7 |. e4 d7 ]9 P
回复 支持 反对

使用道具 举报

发表于 2018-8-2 08:25:17 | 显示全部楼层
人工智能用好了十人类的福音,用不好就成了灾难。如果被别有用心的坏人掌握,是不是要发动机器人的战争?
回复 支持 反对

使用道具 举报

发表于 2018-8-2 16:19:11 | 显示全部楼层
杞人忧天
回复

使用道具 举报

发表于 2018-8-2 18:08:44 | 显示全部楼层
人工智能再发达,很难取代机械工程师。记得一次看新闻联播上,国外的分析。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

小黑屋|手机版|Archiver|机械社区 ( 京ICP备10217105号-1,京ICP证050210号,浙公网安备33038202004372号 )

GMT+8, 2024-3-29 23:36 , Processed in 0.049793 second(s), 14 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表