我,我自己和AI: 后视镜里是我的隐私吗?

几周前,我很高兴在伦敦见到索菲亚。索菲亚 (Sophia) 是一个受欢迎的外向性格,看上去有点像奥黛丽·赫本 (Audrey Hepburn)。碰巧的是,索菲亚也是一台机器。让她有趣的是她可以进行对话。她听你说的话,在说话时显示面部表情,回答你的问题,甚至问她自己的后续问题。

索菲亚只是机器智能在过去几年里取得了多大进展的众多例子之一。即使使用机器人作为主要用户界面仍然很少见,人工智能 (AI) 在图像处理,语音识别和自然语言处理中的实际应用现在已经司空见惯。

在控制论,计算和人工神经网络的早期工作中,以及通过机器学习算法的开发,将Sophia和其他AI演示的基础放在20世纪40年代和20世纪50年代中。

追赶人类。

尽管该领域在过去的几十年中取得了长足的进步,但现在一切都在一起。例如,人们认为,在像Go这样的游戏中击败人类大师将超出AI的能力,因为暴力计算无法找到获胜的策略。事实证明,AlphaGo (由DeepMind创建,由Google收购) 在两年前的五场系列赛中以4-1击败了围棋世界冠军Lee Sedol,而这似乎表现出了直觉等人类特征。

人工智能正在取得快速进展,原因有几个。大规模计算结构 (例如云计算) 以及快速独立的超级计算机的可用性,以及机器学习算法的重大理论进展,意味着我们现在可以做以前不可能的事情。但是,训练一个有用且现实的系统可能需要数小时,数天甚至数周的时间,具体取决于您正在运行的内容。尽管如此,过去根本不可行的人工智能应用现在可以解决了。

人工智能磨坊的磨粒。

但是训练人工智能算法不仅仅是计算能力。拥有相关数据是取得进一步进展的关键。人工智能的大部分内容涉及机器学习,其中使用自动化方法来查找大型数据集中的模式,对对象进行分类,并预测接下来会发生什么。在某些任务中,机器-在展示了很多示例 (即数据) 之后-已经比我们任何人都希望的要好得多。

幸运的是,我们生活在一个时代,现在可以随时获得足够种类和数量的数据。智能手机、联网设备、家庭或花园机器人的无处不在,以及我们周围呈指数级增长的传感器,意味着正在收集大量关于人类的信息,从我们的位置、健康、居住地和人口概况,到金融交易以及我们与他人的互动。

然而,这些数据的大部分 (如果不是全部) 本质上是个人的。个人方面必然会引起隐私和信任问题。

我的数据,我的生活。

是尊重我的隐私,还是未经我同意而收集个人数据?谁在做收藏,怎么做?个人数据是否安全存储?数据是否保留为我自己的个人知识产权?原始数据或从数据中获得的知识是否提供给当局和政府,无论是我自己的还是另一个?

诸如Cambridge Analytica之类的事件据称以暗中方式积累了Facebook数据,这些问题被公开了。同样,最近的故事,例如亚马逊的Alexa记录了一次私人对话并秘密地将其发送给同事,这令人震惊。一旦我们开始在家里使用大量设备,所有人都在听命令,甚至自己给出指令,随着机器开始相互对话并相互进行商业交易,就有可能出现更深层次的混乱和隐私问题。

此外,普通人分享个人数据的动机是什么?在某些情况下,如果这样做有利于我的社区或共同利益,我可能希望共享信息而没有任何补偿。如果作为回报,我可以访问新服务,或者如果某些现有服务得到更多数据的改进,我也可能愿意共享数据。

分享是关心吗?

从概念上讲,这是Google Maps用户已经发生的事情。电话和其他连接的设备跟踪我们的地理位置,速度和航向。当此类信息被汇总并发送回路由查找算法时,实时流量流量的更好图片就会出现。用户免费共享其数据,但会获得更好的功能服务。当然,谷歌从向这些用户提供广告中获得了巨大的利润,他们对他们和他们的习惯的了解远远超出了他们的想象。

亚马逊或Facebook等大公司提供了许多其他服务,这些服务没有给用户太多实际的选择来共享他们的数据。在中国,网络比西方更加集中,像腾讯或阿里巴巴这样的大公司通常会从用户那里收集数据 (并与政府共享)。

然而,在更一般的情况下,需要有切实的经济激励措施来鼓励人们分享。如果人们可以放心,他们的隐私会得到尊重,并且分享他们的个人数据会得到金钱上的奖励,那么他们难道不是更有可能接受这样做的可能性吗?

让我们回到索菲亚。她在许多方面仍然是原始的。但是她表示尝试超越弱AI,即仅限于狭义预定义任务或问题的机器智能。毫不奇怪,强大的人工智能是新的圣杯,它展示了一般的智能。目标是创造有意识的、自我感知的机器,能够匹配或超越人类解决问题的能力。

带护栏的快速通道。

当然,我们还没有掌握如何制造这样的机器,但是如果自然是我们的灵感,神经科学表明智力在很大程度上是我们生活经验的产物。从出生起,我们的大脑就被塑造,并根据与其他人和我们的环境的互动和反馈来修剪连接。

日益强大的机器智能的前景提高了输入人工智能模型的个人数据质量的重要性。机器只能从提供给它的信息中学习。如果输入数据有偏差,那么基于此类数据的模型将导致有偏差的预测和决策。微软的聊天机器人 (Tay) 是一个很好的例子,它很快就学会了-基于右翼的推文弹幕,成为一个种族主义的另类右翼实体。没有好的机制来确保输入数据集的客观性,这本身就是一个令人担忧的挑战。

弗兰克·帕斯夸莱 (Frank pasquale) 表示,在某种程度上,我们在人工智能中看到的是相互竞争的互联网世界观的反映。一方面,您拥有集中式或哈密顿式理想,大型企业收集并利用数据来构建更好的AI模型。另一方面,你有一个杰斐逊的观点,即权力下放被视为促进创新的一种方式,人们保留对自己个人数据的控制权,并与人工智能社区分享。哪个更好?时间会证明一切。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。