来源:侨报网 作者:凯森 编辑:康博斯 % A0 ~3 z! J2 h, X K4 R, W
. m2 Y* E7 w% G1 z* m
【侨报记者凯森9月10日洛杉矶报道】在近日华盛顿举行的一次研讨会上,美国国防部高级研究计划局(DARPA)宣布计划在未来五年内斥资20亿美元用于人工智能研究。, Q" d! M# B5 _) [4 v
$ ]/ Z; W+ @( r+ r, H7 a8 O据科技网站techcrunch报道,DARPA正在开展一项名为“AI Next”的项目,还项目旗下目前已有20多个研究小组,主要任务是优化机器学习和人工智能技术的安全性和可操作性,解决这些系统的功率、数据、性能低效问题,并积极探索此类技术未来的潜力。2 J. f! A8 e/ G7 X; ]9 n0 v
* ?# ], Y7 c& d6 P2 U/ }
DARPA主任史蒂文·沃克(Steven Walker)博士表示,“我们想探索机器如何能获得与人类相似的交流和推理能力,以及识别新情况和新环境并适应它们的能力。”
- U# Y5 A7 s9 T' O
# V8 x: J- a) k A; \' G9 Y人工智能目前是一个宽泛的术语,可包括从直观的搜索特性到真正的机器学习所有内容,并且所有的定义都过分依赖于数据消耗来显示算法和“学习”能力。而在今年夏天,中国已宣布,计划在2030年成为人工智能技术的领导者。, F0 o* v4 F4 x* n8 @5 O
: a) ?$ W6 P g9 @) W- K在许多情况下,这些人工智能技术还处于初级阶段,但这一技术尤其是机器学习技术,不仅有可能彻底改变用户如何与自己的技术设备进行交互,而且也有可能彻底改变公司和政府机构如何使用这种技术与他们雇员和公民进行交互的方式。9 O) W+ e+ W) G( {- m
M* [! |+ a! L此外,机器学习技术中一个特别值得关注的是,由于这些系统在训练期间所消耗的大量数据,它们可很能存在潜在的偏差性。如果数据中包含漏洞或错误信息,机器就可能得出错误的结论,比如总结出有关“哪些人更有可能犯罪”的错误信息,而这可能会造成毁灭性的后果。而且,一旦当机器学习能力能像人类一样带有思想地做出决定时,那产生的后果可能是非常可怕的,电影《骇客帝国》中的人工智能控制世界的场景也许在未来会变为现实,而科技界也将这一不确定的机器学习能力前景称为“黑匣子”。
2 D1 O! m+ u% g6 D; y" F$ v. i# B# Z
换句话说,即使是设计算法的研究人员也不太可能完全清楚机器是如何得出相关结论的。
0 I, a3 f9 G0 T. E' }* O# q
2 H3 a3 w3 J: K. Y9 H但尽管需要谨慎和深思熟虑这一问题,但人工智能研究也可以成为创新和进步的推动力。而随着DARPA开始推进这一领域的研究,人们也希望能看到该机构如何处理这些重要的技术和社会问题。(完)
+ }( m+ A# j6 N H( T9 F( j
4 j* ^* V6 J$ z c0 L) k/ d |