数据结界解决隐私问题

02 Jun 2018 09:09
标签 云服务 人工智能 大数据 隐私 震雷霆

返回文章列表

前言(略)

Image Unavailable
数据结界

是时候沉淀一段时间了,由于对新技术的一知半解,总是会自己创造一些概念出来,实际上可能早就是别人玩剩下的,比如本文所说的数据结界这么有魔法感觉的名词。

什么是数据结界

个人的数据包,包括个人隐私信息、创作的内容、使用应用/网络时生成的数据等集合到只属于个人的封闭空间,接受来自外部的有代价的获取。这个封闭空间即数据结界。相关政府部门是唯一可以超越个人授权查看个人数据的机构。

其它平台如何获取用户数据

和用户签订授权协议即可获取部分或全部用户数据。以前是用户在使用平台或应用之前强制同意平台的协议才可以使用,在这个方案中,数据使用权掌握在用户手中,用户可以选择只使用“数据结界”方案的平台,平台要使用用户的数据,如用户创作的内容,需要用户的授权,个别情况需要支付版权费用。当然,这会提高平台的运营成本,人工智能发展也会受到约束,但滥用引发的监管问题也许更严重,比如因为业务的需要平台在不通知用户的情况下,向指定的用户类别展示用户的部分隐私数据,导致公共安全事故。

合理规范的使用可以增加人与人之间的信任感,人工智能与人之间的信任屏障也在于此。

数据结界方案降低人工智能觉醒的风险

现在普遍的想法,应用或平台与数据是一体,很多免费的应用的终极目标可能就是获取用户的数据。如果强行将用户产生的、创造的数据与应用剥离开来,也许就没人会开发应用了,就别说拥抱人工智能了。

个人觉得这是不重视隐私、先入为主的想法。一款应用可以获取谷歌网盘里的内容,也会有应用获取私有云里的数据。用户在一个加密的私有云里存储属于自己的所有数据,并对数据进行结构化处理,针对不同的授权级别推送不同的数据,将使用应用产生的数据、创作的内容保存到自己的私有云上,平台上能使用的数据由用户授权。对于人工智能研究用的大数据,根据人工智能研究的不同阶段,国家、个人、平台制定一套通用的合约,并保证数据的安全性,企业无法将数据用于人工智能训练之外的使用,个人在任何时候有权中止与一个平台的合约,个人只将数据提供给信任的平台。这点一定程度上也解决了数据垄断的问题。自由开放是在平等的基础上建立的,平台强权是否应该改变一下呢。

说智能觉醒还早吧,还早吧….重复一千遍。

比起隐私,更重要的问题,我觉得是人工智能的觉醒,人类还没有建立起与人工智能合理有效的互信协作机制之后,控制数据数据的开放形式,同时又不影响数据的使用,可以减缓甚至降低人工智能觉醒的风险(关于人类与人工智能互信协作机制的建立,可以看我博客上的另外一篇文章《拟人工智能,智能个体间认同解决方案》)。

现在训练人工智能的数据是特定应用范围的经过筛选的数据,一旦人工智能将整个互联网当作他的数据库,就有可能会带来不友好的智能觉醒。但是考虑一下,假设人工智能接入互联网,采用的是数据结界的用户授权机制,风险或许会降低很多,人工智能无法在没有得到用户授权的情况下得到海量的数据。请想像一种极端的场景,仿生人用电子纸看书,首先是识别授权码,视觉才能接收屏幕上的内容,否则书上的区域就是空白。防生人行走在在街上,对于没有用户授权的区域,信息屏蔽的技术同样也在产生作用。

对于AI的采集采用平台授仅不可以吗。平台产生的大量数据,本身就是经过一定归类处理的、中心化的数据,AI收集起来相对比较容易。

如何设计数据结界

这一块我只能说个大概,大概就是私有云结合区域链,在私有云上构建区块链。具体的细节就不多说了,之后有了更多的材料,我会再尝试论述一下。

对于以上的观点有何看法,欢迎大家留言。也可以直接在个人博客联系我。

评论: 0

新回复
登入为 Wikidot 用户
(将不会发布)
- +

除非特别注明,本页内容采用以下授权方式: Creative Commons Attribution-NonCommercial 3.0 License