人工智能时代的价值反思与伦理调节党课讲稿14页.docx

上传人:b****4 文档编号:4403976 上传时间:2023-05-07 格式:DOCX 页数:9 大小:23.02KB
下载 相关 举报
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第1页
第1页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第2页
第2页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第3页
第3页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第4页
第4页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第5页
第5页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第6页
第6页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第7页
第7页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第8页
第8页 / 共9页
人工智能时代的价值反思与伦理调节党课讲稿14页.docx_第9页
第9页 / 共9页
亲,该文档总共9页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

人工智能时代的价值反思与伦理调节党课讲稿14页.docx

《人工智能时代的价值反思与伦理调节党课讲稿14页.docx》由会员分享,可在线阅读,更多相关《人工智能时代的价值反思与伦理调节党课讲稿14页.docx(9页珍藏版)》请在冰点文库上搜索。

人工智能时代的价值反思与伦理调节党课讲稿14页.docx

人工智能时代的价值反思与伦理调节党课讲稿14页

人工智能时代的价值反思与伦理调节

前言

首先是讲人类现在面临的所谓的生存危机,然后讲述当下人工智能的特征或者说它的特质,接着我们就去试图寻找一些相关的对策,主要是谈一下我自己的思考,看一看有什么样的应对策略,最后是对人工智能未来发展的展望。

一、人工智能来了,未来需要我们吗?

实际上,大家对“人工智能来了,究竟是一个什么样的情况”这个问题有两种不同的观点。

一种观点认为人类现在所拥有的这些技术将使人类自身变成一种濒危的物种;但是也有乐观主义者认为,在机器人的帮助下人类能够获得永生。

实际上不论是一种乌托邦还是一种反乌托邦,这样一种人文的或者是哲学社会科学的思考,它实际上是让我们在发展科技的时候去找到它的上限或者是下限。

实际上,这个技术很简单,大家都知道,就是所谓的融合科技或者是人类增强。

就是说,我们可以通过药物,通过基因,通过认知,甚至达到一种超级的智能。

现在已经有很多人在吃一种“能让人变聪明”的药,据说吃了这个药以后,考试的时候成绩就会比较好,确实是有,像日本都有很多这些药在卖。

   

另外一种就是所谓的认知介入,用现在的话说就是很多的赛博格。

我们最近这两年可以看到,不仅人的记忆可以移植,甚至动物的记忆都可以移植。

这样就会带来一个问题,就是我们将来作为人的自主性的一个最重要的因素,即人的认知上的自由还有没有?

就是说我能不能够去想这个问题,我把别人的记忆移植到我的大脑里面以后,我怎么知道这是移植过来的还是我自己的?

我搞不清楚。

这就是我们将要经历的事情。

那么现实层面的话,智能化其实已经带来一些不平等的极端化。

我们现在可以看到,人工智能的出现和网络时代的来临以及网络科技的发展是一脉相承的。

比如,我们可以看到的一个事实就是,低报酬与高报酬的职位是同等增加的。

我们一边可以看到网络的高管可以拿到很高的薪水,另外一方面我们也看到那些外卖小哥,他们的工资是很低的,这是一个值得我们注意的问题。

另外,当下网络和金融的发展已经导致了分配体系的极大扭曲。

我们甚至可以说,当下的金融体系或者科技金融并没有创造那么多的价值,这也是值得我们反省的。

另外,在这样一个“赢者通吃”的时代,在这样一个“网红经济”的时代,明星们的收入也是拜当下的新媒体或者是智能化的发展所赐。

再就是我们可以看到,智能化时代来临以后,我们可以列一个所谓的“人类剩余优势清单”,就是我们人类还剩下哪些优势?

这也可以说是一种危机意识。

也许现在我们还可以说我们有创造性和变通性。

但是也有人讲,人工智能现在也可以绘画了,或者可以作曲了。

然后有人说我们人类有一种社会自觉,所谓社会自觉就是我们能够搞关系。

英文中有个词ralation叫“关系”,说的就是我们中国人的这样一种社会关系、社会交往能力。

再就是谈判和所谓的“论证”,哲学家的这样一种论证。

当然,我们将来还会有很多新的疾病,比如说虚拟现实成瘾,其实就是我们现在的电子游戏成瘾。

我们分不清楚哪些是现实,哪些是虚拟,有一定的障碍;还有身份的认同焦虑等等。

说到身份认同,因为我们将来有越来越多的事情是交给智能化的代理去做的。

现在有一些微信“大咖”,他们都是在用机器人来帮他发微信的,你不要以为是他本人在发。

我们现在想一想,一个人有50个群,他到底是哪个群的群主,恐怕连他自己都搞不清楚,现在就是这么一个情况。

当然还有很多其他情形,有些是科幻性的,比如说机械移植,具有排异性。

还有就是吃了聪明药以后,智能增强以后,有时候会导致精神疾患。

因为你一旦不吃那个药的时候,马上就会对自己的信心不一样了,甚至会对自己失去信心。

还有就是机器人的恐惧症、自我刺激的成瘾,现在还有所谓的性爱机器人。

再就是人真正寿命延长以后,你自己都活得不耐烦了,不是没有这种可能。

这样的话,未来的社会就会出现两种情况,第一种就是由机器人来掌控世界。

它指的不是我们现在科幻电影讲的机器人来主动掌握这个权利,或者人主动放弃这个权利。

实际上是什么呢?

实际上是人对机器的高度依赖。

我们知道,社会发展到今天,需要面对的问题越来越复杂,我们越来越多地依靠智能机器人,依靠这种智能化的机器。

实际上最终会出现的一个情况就是,人不得不把自己的决策权让给机器,而且人依赖于机器,等到真正机器本身出现问题的时候,人也不可能再去关闭这个机器,因为关闭机器就意味着自杀,就像现在,如果把网络关了,就意味着这个社会可能会瘫痪。

这是第一种未来情景。

第二种未来情景,就是人类继续保持对机器的控制,这种情况也是有的。

但是在这种情况下,它实际上和当下是不一样的,它实际上只能是少数精英掌握了技术,而普通人是不太能够掌握技术的。

也就是说,有可能大众对整个系统来说不是那么必要,反而成为累赘,这就是所谓“无用阶层”的出现。

“无用阶层”的出现将来会产生一个很大的产业,就是要对他们进行心理疏导和社会管控,要从心理和精神层面对他们进行智能化的引导和校正。

由此可能会带来更多的社会问题。

二、数据智能与解析社会的来临

刚才讲了很多科幻的情况,下面我们再来讲一讲现实。

现实是什么呢?

就是数据智能和解析社会的来临。

一方面我们的数据是呈指数增长的,这个大家都知道,我就不多说了。

实际上现在是一种什么情况呢?

简单一句话就是,数据就是存在。

就是不管你是主动还是被动,我们都是数据的贡献者。

所谓解析社会,就像我们在近代科学早期出现的解析几何一样的,古典的欧式几何只是解决了平面几何的问题,解析几何才能解决物体轨迹的问题。

而现在,解析社会通过数据能够解析什么呢?

我们通过数据能够精确地描述每个人的行为轨迹,这是一个极其巨大的变化。

就是说,一切都将被记录,一切都将被分析。

13世纪的时候,人们发明了透镜。

有了透镜以后,我们才有了眼镜,我们的近视眼和远视眼的问题得到了解决。

后来我们有了望远镜,有了显微镜,我们可以看到整个世界自然的图景。

但是我们现在是在用数据透镜来改变我们的社会,用数据透镜来进行政治的计算。

通过数据的解析,我们甚至可以站在上帝的视角来看整个社会是怎样来发展的,包括我们现在有很多网格的管理,,然后我们还有很多的测绘测时。

比如说我们有个技术,把每个人的微表情全部记录下来,然后就告诉你在上课的时候,你在听演讲的时候应该怎么样,你应该怎么样去跟人家互动等等。

而且这个东西看起来是非常客观的,所以它对人的控制力应该是很强的。

换句话说,数据透镜最后起到了一个什么作用呢?

就是对人的行为的一种智能化的调节。

它的社会应用实际上是很广泛的,我们知道我们现在所有采集的数据,实际上很多东西本来只有单一目的,但是一旦成为数据被记录下来,就可以有多重目的了,就可以有各种各样的用途。

比如,我们可以把你的医院的数据和你犯罪的数据结合在一起,然后判断你可能真的有某种精神疾患,所以才去犯罪。

另外,我们的数据整合有时候会带来意想不到的效果。

有好多人,只要上网点击一个什么东西,人家马上就会知道你的电话号码,就会马上给你打电话推荐什么东西,更不要说把所有的数据都整合起来,就会具有这样一种评价社会的功能。

实际上,评价社会对我们人类自身的行为也是一种调节。

比如说我们去坐滴滴的时候,滴滴的评分是很重要的,因为滴滴是“记仇”的,如果你老是取消订单,那么在你特别想打车的时候它就会不给你派车,因为它给你评分了,它认为你的信用度不够高,还有就是什么人给贷款、什么人不给贷款。

有的领导说为什么我的保险高、你的保险低?

有可能就是因为你在某一天跟人家路怒,跟人家打架了,然后有摄像头拍下来了,那就表明你在安全上是有问题的,所以你的保险金就高,但是它不会告诉你。

另外,现在还有预测犯罪的问题,我们现在就有很多这样的例子。

但是预测犯罪跟我们以往的无罪推定还是有些不一样的。

   

大家知道,现在有一种运动就是所谓的“可穿戴设备”,就是量化自我,通过一种跑步软件,可以统计每天跑多少步。

但是如果我们每天在朋友圈去刷“今天跑了10公里,明天跑了10公里”,实际上这也是我们屈从于机器职能的一种表现。

而且,我们要知道,还有很多东西是不可量化的,将来还有很多智能化的生活。

我们现在正在进入一个老龄化的社会,很多小孩和老人都可以有自己的智能陪伴。

甚至如果我们现在的记忆不够用了,还可以有自己的所谓“记忆管家”,也就是一个智能陪伴,它从小就陪伴在你身边,对你生活的所有细节进行录像。

有时候你可能很多东西都记不起来。

比如说“我上次见到我爸爸是什么时间”“我送了他什么礼物”,或者“我见到领导讲了什么话”,它都能帮你记下来。

再就是我们现在身体的数据也是透明的,这个透明的数据包括基因检测等资料,但是这些数据已经跟以往不一样了,它看起来是属于你的,但是实际上是属于整个社会的,因为你的基因检测,只有每一个数据都拿来共享、都拿来分析的时候才有价值,才能看出来它们之间的差距。

不能说你的数据不用,他的数据也不用,全部都成为数据的“孤岛”,那这些数据就没有意义了。

这是我要讲的一个情况。

实际上,我们现在正在经历一种控制革命2.0。

什么意思呢?

就是从近代以来人类社会经历了一种控制的革命。

我们以前从熟人社会到了一个陌生人的社会,进入工业社会以后,大工业化的生产需要进行管理。

所以不论是科学管理,还是电报、电信技术的出现,都是为了对这个社会进行某种控制。

我们现在有了一种新的控制,有了数据以后,我们就要对这个社会进行一种最大限度的解析,进行一种观测、监视、预测、评价、诱导。

一个很典型的例子就是澳门的赌场,它是一个绝对精细化的智能化的设计,你进去以后上演的行为,全部都是它给你设计好了的。

三、智能算法的伦理审计与争胜性策略

那么,面对以上的情况,我们应该怎么办呢?

我这里提出一个概念,叫“伦理审计”,就好像我们财经上的审计,大抵就是这个意思。

我们要知道,现在有很多东西可以通过数据洞察去发现它们的差异性。

比如说大学生的饭卡可以用来打开水,现在有一种统计,有人通过统计有一种数据洞察,就是一般来说,打开水打得多的孩子,他学习一般是比较勤奋的,成绩一般是比较好的。

而那些完全不打开水的孩子他很可能有孤独症,很可能是游戏上瘾,或者有这样那样的问题。

还有标签,以往我们要从科学上进行一种绝对的分类是很困难的,但是现在可以用一种大众的分类法来分类。

比如说他是有宝马车的,他是开奔驰的,他是开桑塔纳的,然后还有各种各样的不同的习惯,可以根据各种标签来断物识人,因为人本身是看不清楚的。

另外,还有一种内容推荐,你买了这个书,他会告诉你买了这些书的人还买了一些什么书等等信息。

还有根据人群来分,有一种算法推荐,像现在的今日头条,还有抖音、快手都是这样。

当然它也会带来一些问题。

比如说重复推荐、立即推荐,甚至会推荐一些你反感的内容。

因为它只是对你进行一种揣测,所以有时候可能也是一种负面诱导,往往诱导你产生一些负面的情绪。

再就是它会使你的偏见增加,还可能导致你生活在一个自己的小圈子里。

比如,有的人老抱怨快手和抖音给他推荐一些不良的视频,但是实际上人家说我们根据数据显示,你确实看过那些不良的视频,这说明什么?

这说明它们比你还要了解你自己,智能算法就是研究这个问题,这样就很麻烦了。

实际上,这些算法在认知上也有不确定性,有的时候因为不容易理解还会导致误解,所以我们要对它的认知进行审计,就是看看它有哪些偏差。

同时,它还有价值上的偏差,比如说歧视。

然后还有一些自主,就是影响人的自主,甚至会影响人的隐私。

讲到歧视或者偏见,我想特别跟大家讲一下,我们任何的语言、任何数据的选取和表达都是有偏见的。

比如说水煮鱼,其实水煮鱼是什么?

不就是水煮豆芽菜嘛!

是不是?

它其实就是水煮豆芽菜里面加几块鱼片。

有时候你认为的这些东西没有偏见吗?

它都是有偏见的。

京酱肉丝,可能你只想到肉,那后面是什么呢?

其实就是这个问题。

另外,可以告诉大家,我们现在的内容推荐都是根据你的购买行为来对你进行的一种计算,但是人生的意义绝对不仅仅是购买行为,所以我们可以和他进行反驳,人生的意义绝对不是说你买了钻石,他买了劳力士,绝对不是。

所以我们现在就有了一种争胜性的策略,它指的是在设计上的一种非对抗性的竞争策略。

就是说,我们首先要进行价值揭示。

比如说现在的滴滴顺风车的事件,我们就要从价值上去揭示平台的责任:

这个平台为什么要把顺风车的软件变成一个社交软件?

这就是问题。

那么背后最大的利害关系人是谁?

另外,我们要对它进行价值的纠偏。

比如说有些司机对女性乘客进行骚扰的那些数据能不能让它有价值?

同时,我们通过人工智能计算,还可以进行伦理的引导,包括经济学的助推、社会管理层面的助推等等。

其实,在计算机领域,10多年前就已经发展出一种计算机说服技术。

比如说你抽烟、你肥胖,他都可以来说服你,帮助你改进你的行为。

我们现在的智能手环其实也是起到这样一个作用。

我们现在实际上已经发展为一种智能化的助推、智能化的劝导。

另外,我们还可以通过一种数据来增强我们的道德提升。

比如说你老去看那些低俗的视频的话,如果有个智能助手告诉你“你不要这样看”,你这样看的话,且不说你是高尚还是不高尚,至少别人会认为你是不高尚的,这也是一种纠正,我们叫做争胜性的策略。

而不是滴滴不行了,我们把它关了,不是这样的,我们要从反面去校正它。

四、面向智能化社会的美好生活之路

面对智能化的社会,我们现在不是讲“美好生活”吗?

实际上我们可以看到,追踪数据就是追踪人的价值观。

因为机器是没有思想的,是没有心的,也是没有价值观的,而人类却是有思想、有心、有价值观的。

所以数据实际上反映的是人的价值观。

实际上我们现在要正确地面对一个现实,这个现实就是人工智能在定义我们,在定义人类。

“你是个好人”,或者“你是个坏人”,在给你打分。

实际上,人工智能给我们带来的一个好处就是,它能够定义我们人类,它能够告诉我们“我们是谁”。

其实我们一直也是这样做的。

比如说我们一直以来会照镜子,猿猴会看河里的水照镜子,现在的美女早上会起来照镜子,这实际上就是对自己的一种观察。

那么,我们现在是什么呢?

我们实际上是一个数据的镜子。

我们现在有了这种智能设备,你往那儿一站,它就告诉你“你的健康状况怎么样”。

将来我们有了这个数据透镜以后,它能够告诉你“你的微表情是什么”。

如果你是领导,然后他告诉你“应该怎么样微笑”,告诉你“应该怎么样去见新的下属”。

它不仅可以告诉我们“你是谁”,还可以告诉我们“你该怎么做”,以及我们该怎么去“改进我们的行为”,所以,我们要怎么样进行自我变革其实取决于我们自己。

   

我们应该知道,我们现在处在智能的数据分析的设施之下,其实这也是我们人类来改变自身的一个契机。

实际上我们将来有两种愿景:

第一种愿景是,我们是继续充满侵略性的秘密监视的模式还是创造一个以信任环境为特征的新模型。

前两年有一个试验:

有一个虚拟现实的头盔,给它一个云数据,然后让它从一个餐厅走过,或者从我们的国展中心走过,然后设计一个技术,就是说每当有人要收集数据的时候它就会叫。

结果有个人从那儿走过还不到500米,大概有7000多声“嘀嘀”的叫声。

换句话说,可能会有各种无形的手伸过来要你的数据,这种感觉会让我们很不愉快。

如果这样一种情景长期进行下去会发生什么呢?

就是使我们的幸福感下降,还有我们对这种东西的信任的缺失,长期来讲它是不利于经济发展的。

所以我们现在需要创造一种以信任为社会特征的模型。

在这样的模型下,我们每个人都知道这个数据是怎样利用的。

实际上,我们需要有一种数据所有权与算法的再平衡。

具体怎么实施,这是另外一个问题。

从原则上讲,任何实体要想从个人那里获得数据,必须让这个人知道他们想要挖掘哪些信息以及如何使用这些信息;然后我们每个人都要主动参与数据的提供与选择,让算法更准确地了解我们,包括现在所谓的被遗忘权、数据的可删除权等等。

因此,我们不要忘了人类自身的尊严,这里所说的“人类的尊严”不是西方价值观讲的那些好像看起来很高大上的东西,其实它很简单,就是我们要尊重人的情感的需要,我们要在合理的设计目标下最大限度地尊重人类的隐私权。

人如果没有隐私权,有时候是会有问题的。

还有就是它把我们的所有数据都记录下来,这就好像说我们有一个疤痕在那儿永远也抹不掉,就是这样的感觉。

实际上人是什么?

人最重要的东西是一直在寻求改变。

其实即使人自身做得不好,他也希望自己能够做得更好。

但是如果社会不给他这个机会,把他定性了,把他框死了,说他就是这个样子的,完全不遗忘他的一些过失,这实际上是违背人性的。

比如说,我得罪了领导,没关系,他今天不高兴,他可能觉得很生气,过两天一高兴,他可能就把这个事情忘掉了。

我们还可以举一个极端的例子,如果小学老师的记忆力是超强的,那么小学生肯定完蛋。

那么多调皮的孩子,他把所有的调皮生都记下来,那他这些孩子就会永远被贴上一个“坏孩子”的标签,这些所谓的“坏孩子”就很难再改了,所以说,遗忘这个东西本身就是人类的一种智慧。

包括隐私,其实也可以使我们自己能够有所改进,除了保证我们私生活的隐秘性之外。

这样来看的话,在智能化时代,我们要尊重人的脆弱,人都是脆弱的,也是很辛苦的,包括身体上和心理上。

同时我们要牢记人的责任,而且我们要强调的是,机器人没有与生俱来的道德,机构要对人工智能负责,这是最重要的。

我们现在的大企业,也要对人工智能负责。

如果说我们最开始讲到的是一种生存危机,那么在这种生存危机到来之前,在我们人类成为所谓的“濒临绝种”的物种这个危机到来之前,我们要去设计新的道德标准,要把价值观编入到人工智能系统中去。

我们还可以进一步思考,难道今天的人类就是最后一批能够体验死亡的人吗?

难道我们是这样的吗?

难道以后的人类真的会得到永生吗?

如果说超级人类是将来的一个绝对状态的话,那么人会不会就像软件一样过时了?

如果机器有一天真的会取代人,我们该怎么样追求幸福呢?

当然有些想法是有点无厘头的。

我最后还想讲的就是,人类现在确实面临一个危机,我们其实一生下来就觉得自己是过时的。

为什么?

手机、计算机现在发展得非常快。

比如说,我们现在在手机上能够买飞机票、买别的什么,但是我们的父母那一辈就没有办法这么做。

现在,当我们看到90后、00后的孩子在玩什么的时候,我们会发现他们的那种方式我们也完全不会,我们会有一种紧迫感。

我们要反思,这种想法本身是不是有问题?

更重要的是,我们要证明自己的价值,如果我们不能证明自己的价值,不能证明我们人的价值,如果我们不能借助人工智能来认清人自身,认清我们的优点,认清我们的缺点,认清我们脆弱的地方,认清在新的时代我们应该努力的方向,那么机器怎么可能愿意让我们继续存在呢?

如果我们认识不到这一点,我们将来怎么走向人机共生时代的美好生活?

这应该是一个非常大的挑战。

谢谢大家。

 

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 高等教育 > 法学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2