我敢跟你打赌,在过去的几周内,你的微信公号推送、新闻头条、微博等等一定或多或少地出现过以下这些词:

  • 人工智能(Artificial Intelligence, AI)
  • 机器学习/深度学习(machine learning, deep learning)
  • 智能xx (smart xx),如智能家居、智慧城市
  • AlphaGo/Libratus/机器人

似乎从2016年特别是下半年开始,这些词就占据了各大媒体、咨询报告、行业会议等版面。比如谷歌启用AI提供翻译服务;百度裁撤医疗事业部专心布局AI,挖来前微软智能机器人“小冰”负责人之一的陆奇,与同曾在小冰团队的景鲲双双掌管“度秘事业部”;华为成立了过百人的团队研发AI助手;腾讯砸钱搞了个人工智能实验室等等。近来诸如《纽约时报》发文预言“中国人工智能赶超美国不是梦话”,第31届AAAI人工智能大会为了不与中国春节冲突而改期等新闻更是顺势推高了一众专家、媒体人、网络写手、看客对AI的热情。

然而,那句老话怎么说的来着——步子迈大了小心扯着了蛋。AI总体上来是好事,是不可逆转或阻挡的发展趋势,但私以为在期待科技为我们(懒人)的生活带来便利、推动经济发展的同时也应该冷静下来弄明白AI会给带来哪些影响,这个行业应该怎么发展才能尽可能地避免扯蛋。

AI到底是个啥?

“人工智能”一词最初是在1956年达特茅斯(Dartmouth)学会上提出的。人工智能(Artificial Intelligence)可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。什么是“智能”就很难有个统一的定义了。看过《西部世界》(West World)的朋友估计都会对剧中的机器人与人类相似之高印象深刻,这其中就包含了“智能”一词的思考:是意识(consciousness)、是自我(self)、是思维(mind)(包括无意识的思维)还是其他?这个就不止是科技问题而是哲学思考了, 有时间咱们下回再辩。

AI是计算机科学的一个分支,但为什么计算机出现了整整70年后我们才开始讲它呢?简单来说,就是直至今天,计算机运算才足够快,我们对神经网络的认识和应用才足够深,以应用到这个分支中。AI能够成功的一个很大因素是机器学习(machine learning)和深度学习(deep learning)。目前AI领域的研究并且开始已投入商业应用的包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

鸡汤大师及互联网行业大佬李开复老师举过这么一个例子:“如果我们有很多笑脸,然后我们把笑脸的像素输入到一个神经网络里面去,最后你那儿希望让机器能识别这是姚明,那是马云,但是因为你这个深度学习的网络很深,要一次性学会这么多也会比较困难,所以就需要用到一个比较快速收敛的技巧——自我学习。通过自我学习,机器会逐步从大量的样本中逐层抽象出相关的概念,然后做出理解,最终做出判断和决策。” 一言以蔽之,也就是AI下机器要像人一样可以自我学习,而无须程序员们一步一步地教,一行一行代码地码。

2223e0e6-65cb-4ae4-8027-e4bc88e87f8d_size97_w600_h399

大数据让AI强大,但不得不说其背后的隐私隐忧

但创造出强大AI的毕竟是人。“性感”的AI背后是那些非专业人士看不懂的复杂的代码,是哪怕专业人士都无法接触到的算法,是各公司和机构不愿意轻易公开的运行规则。而这恰恰是问题所在。

我们多多少少都有过这样的经历:刚刚在网上搜索了“健身餐”,很快你浏览的各种网页和社交媒体就会出现“无烦恼减重”、“营养无害代餐粉,21天轻松瘦身”、“健身房促销”等等为你“量身订造”的广告;你收藏或点赞了某一类图片,不久就有相似的产品或网页推荐给你……

这种推广方式有个很美的名字叫“精准营销”,而这在某种程度上得益于AI以及其背后基于对我们公开信息、网上痕迹乃至个人隐私等数据收集,问题在于很多时候,这些收据数据、记录上网痕迹的行为并没有得到用户同意。

大公司收集了什么用户的什么数据,怎么保存等,这是AI的第一问题。当你为了在蚂蚁花呗拿到高1000块的信贷,或仅仅为了给朋友晒晒你700多800多的“芝麻信用”而给支付宝提供你的教育、收入、财产、住址等信息时,你有没有想过支付宝将来会如何利用这些庞大的分分钟能变现的数据?拥有这些信息的公司会不会选择与有关部门或机构分享这些能追溯到亿万个人的数据,甚至在自家数据库建立一个“后门”,让有关机构随时能调取信息?或者退一万步说,它能不能安全地保护这些高度敏感的用户数据?

老司机们都知道“社工库”等行话吧?就是那么个意思。随手附上南都前不久出的报道:《记者700元就买到同事行踪,包括乘机、开房、上网吧等11项纪录》。

还有那些被关在“黑盒子”里的算法

第二个问题关乎AI原理的——算法及其透明度。大公司某一个AI应用背后的算法有什么规则,这些规则会带来什么样的可预期或不可预期的后果是我们需要注意的因素。

AI之所以发展如此迅速,很大一个原因是全世界几乎各个政府都对它表示全力支持。AI其中一个的应用正是安防、城市规划、情报等行业。这总体来说是个好事,比如杭州的“城市大脑”,想象如果它如果能够成功实时有效调配红绿灯以解决拥堵等问题,真是大好不过。或者将数据整合用于城市治安管理,也是有裨益。

但是如果我们仅仅依靠算法和所谓的大数据管理城市,很可能出现“选择性治安管理”等现象。由于算法甚少考虑情感、文化、社会等因素,如果完全信赖算法,很有可能那些所谓的“新疆多小偷”,“广西多出砍手党”,“远离河南人”等“地域黑”、“族群黑”玩笑就不再是玩笑,而是被当作数据之一来分析哪些人聚居的哪些地区执法部门应该“多加关注”。

事实上,目前国外许多城市政府(特别是美国)首先想到要应用AI不是城规,而是安防,针对国内民众特别是爱“上街”群众的那种。比如美国有个叫Taser的公司前段时间就推出了人工智能身体相机,专售政府部门,警察戴上这个相机,不仅可以实现随时随地对任何人事物拍照摄录,更能在诸如群众游行的时候,开启人脸识别等智能功能,说来就来,问你怕未。

westworld-s1e5-2-1200x800

再次利申,本人十分支持发展AI,也能期待它为我等懒人的生活带来便利。但在围观各大公司和行业大佬给我们展现一个看似百利而无一害的“黑科技”未来的同时,政府部门也应该及时修订法律法规,第三方监管机构、国际组织等也应该监督这些公司增加透明度,以防出现上述种种问题。

Advertisements