您的位置首页 >网络行情 >

我我自己和AI后视镜中的那是我的隐私吗

几周前,我很高兴在伦敦见到索菲娅。索菲娅(Sophia)是一个受欢迎的外向型人,看起来有点像奥黛丽·赫本(Audrey Hepburn)。碰巧的是,索菲亚也是一台机器。使她有趣的是,她可以进行对话。她听您说的话,说话时表现出面部表情,回答您的问题,甚至问自己的后续问题。

索菲亚只是过去几年机器智能取得了多大进步的众多例子之一。即使使用机器人作为主要用户界面仍然很少,但人工智能(AI)在图像处理,语音识别和自然语言处理中的实际应用现在很普遍。

Sophia和其他AI演示的基础工作在1940年代和1950年代,控制论,计算和人工神经网络的早期工作期间以及通过机器学习算法的开发进行了研究。

追赶人类。

在过去的几十年中,尽管该领域已经取得了长足发展并开始发展,但如今事情正在融合在一起。例如,人们认为在Go之类的游戏中击败人类大师将超出AI的能力,因为用强力计算无法找到获胜的策略。事实证明,AlphaGo(由DeepMind创建,并由Google收购)在两年前的五场系列赛中击败了围棋世界冠军Lee Sedol 4-1,同时看上去表现出了非常人性化的特征,例如直觉。

人工智能的快速发展有几个原因。诸如云计算之类的大规模计算结构以及快速独立的超级计算机的可用性,以及机器学习算法的重大理论进展,意味着我们现在可以做以前不可能做的事情。但是,训练一个有用而现实的系统可能要花费数小时,数天甚至数周的时间,具体取决于您所运行的内容。仍然可以解决过去根本不可行的AI应用程序。

格里斯特为AI工厂。

但是,训练AI算法不仅仅涉及计算能力。拥有相关数据是取得进一步进展的关键。许多AI都涉及机器学习,其中使用自动化方法来查找大型数据集中的模式,对对象进行分类以及对接下来将发生的事情进行预测。在某些任务中,机器(在显示了大量示例,即数据之后)的性能已经比我们任何人都希望的要好得多。

幸运的是,我们生活在一个时代,现在可以随时获取足够数量和种类的数据。智能手机,互联设备,家庭或花园机器人的普及以及我们周围传感器的数量呈指数增长,这意味着从我们的位置,健康状况,居住地和人口统计信息到金融交易,正在收集有关人类的大量信息以及我们与他人的互动。

但是,很多(如果不是全部)数据本质上是个人信息。个人方面必然引起隐私和信任问题。

我的数据,我的生活。

是否尊重我的隐私,或者未经我的同意收集个人数据?谁在做收藏,如何做?个人数据是否安全存储?数据是否保留为我自己的个人知识产权?是否将原始数据或从数据中获取的知识提供给我本人或其他人的当局和政府?

相关:在我们禁止数据经纪人之前,在线隐私是一个空想

据称,诸如Cambridge Analytica之类的事件以不正当的方式积累了Facebook数据,这些问题就已经公开化了。再次,最近的故事(例如亚马逊的Alexa记录私人对话并将其秘密发送给同事)令人震惊。一旦我们开始在家中使用大量设备,所有人都在听命令甚至自己下达指令,随着机器之间开始进行对话并彼此进行商业交易,就有可能产生更深层次的困惑和隐私问题。

此外,普通人共享其个人数据的动机是什么?在某些情况下,如果这样做有益于我的社区或共同利益,我可能希望不加任何补偿地共享信息。如果作为回报,我可以访问新服务,或者某些现有服务已通过更多数据得到改善,那么我可能也愿意共享数据。

分享在乎吗?

从概念上讲,这就是Google Maps用户已经发生的事情。手机和其他连接的设备会跟踪我们的地理位置,速度和前进方向。当这些信息被汇总并发送回路由查找算法时,就会出现更好的实时流量流图。用户免费共享他们的数据,但可以得到更好的功能服务。当然,谷歌通过向相同的用户投放广告并比他们梦habits以求的更多地了解广告及其习惯,从而获得了可观的利润。

像亚马逊或Facebook这样的大公司还提供许多其他服务,这些服务并没有给用户提供太多是否共享数据的实际选择。在中国,网络的集中度远远高于西方国家,像TenCent或阿里巴巴这样的大公司通常会从用户那里收集数据(并与政府共享)。

相关:据报道谷歌致力于中国的审查搜索

但是,在更一般的情况下,需要有形的经济激励措施来鼓励人们分享。如果人们可以放心,他们的隐私将得到尊重,并且分享他们的个人数据可以获得金钱上的奖励,那么他们是否更有可能接受这样做呢?

让我们回到索菲亚片刻。她在许多方面仍然很原始。但是她代表了超越弱AI的尝试,即弱于预先定义的任务或问题的机器智能。毫不奇怪,强大的AI是新的圣杯,展现了一般的智能。目标是创建有意识的,具有自我意识的机器,这些机器能够匹配或超越人类解决问题的能力。

快速行驶,无护栏。

当然,我们还没有掌握如何制造这样的机器,但是如果自然是我们的灵感,神经科学表明,智力很大程度上是我们生活经验的产物。从出生开始,我们的大脑就已经成型,并且在与其他人以及我们的环境进行交互和反馈的基础上修剪了连接。

越来越强大的机器智能的前景提高了输入AI模型的个人数据质量的重要性。机器只能从提供给它的信息中学习。如果输入数据有偏差,则基于此类数据的模型将导致有偏差的预测和决策。微软的聊天机器人(Tay)就是一个很好的例子,它很快就学会了-基于右翼推文弹幕指引的方向-成为种族主义,另类权利的实体。没有适当的机制来确保输入数据集的客观性,这本身就是一个令人担忧的挑战。

相关:微软为聊天机器人的种族主义,性别歧视推文道歉

弗兰克·帕斯夸莱(Frank Pasquale)表示,从某种程度上讲,我们在AI中看到的是竞争性互联网世界观的反映。一方面,您拥有集中式或汉密尔顿式的理想,大型企业收集并利用这些数据来构建更好的AI模型。另一方面,您有一个杰斐逊主义的观点,其中分散化被视为促进创新的方式,人们可以保留对自己的个人数据的控制权,并可以按自己的意愿与AI社区共享。哪一个更好?时间会证明一切。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。