赐研®网站 > ai人工智能 >> 南京iphone6电池多少钱_AI作恶?我们必须思考人工智能中的道德了!

南京iphone6电池多少钱_AI作恶?我们必须思考人工智能中的道德了!

很多人都热衷于AI,因为它可以实现自动化,可以在游戏中击败人类,也可以提高人们的整体生活水平。南京iphone6电池多少钱当然,这是不争的事实,但AI仍有缺陷,甚至危险,可能带来的人类,也可能不是。即使在今天,仍有无数的AI妨害或危及生命的事件,它是怎么发生的?后AI将会越来越流行,它可能导致破坏的潜在特征是什么社会?

很多人都热衷于AI,因为它可以实现自动化,可以在游戏中击败人类,也可以提高人们的整体生活水平。南京iphone6电池多少钱当然,这是不争的事实,但AI仍有缺陷,甚至危险,可能带来的人类,也可能不是。即使在今天,仍有无数的AI妨害或危及生命的事件,它是怎么发生的?后AI将会越来越流行,它可能导致破坏的潜在特征是什么社会?

道德缺陷的人工智能算法

人工智能有许多缺陷,他们会滋生一个道德问题。因为大量的训练数据是有偏见的,为了建立信息反馈循环模式。给出一些例子来看看这些小错误影响到真实的人。

有一个偏差1。人脸识别的训练数据

想象有一天,你从学校走回家,警察出现了逮捕令,戴上手铐,想带你去拘留中心。你不知道你犯了一个错误,,看着家人和邻居。警察,他们搜索的身体,把指纹、照片,让你呆在一个肮脏的细胞一个晚上。为什么你坐在那儿,想要抓住了。

这确实是发生在罗伯特。在美国,他是一个黑色的法明顿山无缘无故被逮捕。警察询问时,他拿出一张照片,有一个黑人偷商品的商店。威廉和否认他已经在照片不是本人。另一张照片的特写是偷,什么都不喜欢威廉,他说:“不,这不是我。你认为所有黑色的样子?”为什么警察抓错了吗?这是算法的问题。警察通过人工智能搜索犯罪嫌疑人,但显然这是错误的。人工智能可能出错,应该不是很准确?是的,AI通常是非常准确的,但前提是训练没有问题。威廉是主要原因是训练数据中怀疑存在偏差。白色的面部识别系统是很公平的,但对少数群体不是很准确。因为数据集所有者如果白人面孔和其他少数民族的脸,黑色的认可程度低。

而“黑皮肤男人“认可程度高,深色与浅色皮肤识别有很大的差距,尤其是黑皮肤的女人。这些成就属于尖端科技公司,可能不是警察。

南京iphone6电池多少钱

2. YouTube的反馈系统

你一定见过站,在首页将看到一个有趣的视频或者流行的视频,一个小时后你仍在这一页,就看到更多的视频听不清。这是推荐系统的作用,它将提供可以离开你的视频在页面停留的时间较长,从而获得更多的利润。你可能会想:“在平台呆一段时间吗?也不会伤害任何人。”不,这推荐算法会导致有害内容的反馈。YouTube的人工智能反馈循环有一个非常可怕的问题:“网站推荐算法的恋童癖更容易在一个特定的视频评论区寻找或分享儿童色情。发现有很多可怕的点。不仅视频被商业化,其成千上万的用户推荐系统不断促进儿童视频。”反馈回路系统也会导致一个模式,一直是观众可能会看到他们的独家内容。然后会有一些人永远不会听反对的声音,导致两极分化。此外,该系统可以为阴谋论做宣传。喜欢引起极化,它将使阴谋论略感兴趣或与人相信这些话。推荐视频你看到越来越多,他们都是通过相同的信息。

3.AI导致医疗时间缩短

2016年,一个新的算法应用于阿肯色州医疗系统。南京iphone6电池多少钱这个算法是给更好的医疗人员分配资源和时间,它将考虑几个因素来决定每个病人需要很多的帮助。但与此同时,这意味着医疗效率医疗长度会减少很多人,但这些人往往最需要帮助的时候。

软件不会对糖尿病患者或脑瘫患者,问题源于一个泄漏和错误代码。结果是一个道德问题,我们应该使用AI来确定病人的健康吗?为什么国家的未知或不使用算法检测错误呢?有一个明显的例子,能够体现算法的影响从tammy陶氏的生活。泰米,道博大脑瘫痪多年,2008年搬到阿肯色州。她非常需要帮助自己轮椅移动,和手都僵了。因此,医疗机构分布的状态给她照顾时间最长,56个小时。

阿肯色州医疗系统应用人工智能算法后,这一切都变了。道博保健从56小时32小时!只有原来的56% !明显的削减对她的生活造成了很大的影响。

AI作恶?我们必须思考人工智能中的道德了!

使用不当的人工智能

1. IBM和杀戮

是的,IBM帮助二战期间纳粹大屠杀。你可能想知道:“人工智能备份到第二次世界大战什么时候?”可以这样说,IBM开发了一套制表功能分类。不仅仅是一个简单的算法,把卡片分类更繁琐,需要大量的维护工具,人工智能是不常见的。尽管如此,我仍然认为这是重要的讨论技术使用不当,是否AI。

首先检查这台机器是如何工作的,你会得到一个穿孔卡片,需要插进去就可以了。机将读取的信息,保存,最终输出数据;这些数字代表的阵营,人们会去囚犯的类型和如何死。一个名叫霍华德·卡特的首席研究员写道:“经济”希特勒的经济策略,我们的一个(美)企业来做同样的事情。所以IBM与纳粹是一个人,整个世界由国际怪兽”。

2. 在面对

面对也是一种人工智能。它产生极其现实的图像,视频,音频,对手是网络生成的,它是一个深度学习模型。只是为了娱乐和使用无害的,但在面临真正的危险,但也带来了一个道德问题。面对制造伤害的援助是在政治领域的一种方式。如果一个twitter将导致形势越来越紧张,视频或语音吗?嘲笑其他政治大亨记录将在互联网上像病毒一样传播,极化,如果人们相信形势会更加紧张。另一个扰乱社会网络方法是淹没大量虚假内容。当你上网时,我怎么能知道你看到的是真的吗?如果在面对网络和媒体,永远不会有人知道什么是事实,什么是真实的。甚至可以生成错误的文本,你怎么知道如何读,如果我写,或机器人在误导你。

最后一个是色情造成破坏。根据2019年9月的一份报告,96%的在线应用程序与色情有关。在《福布斯》的一篇文章说:面对色情没有其他的许可,经常会有明星合成视频或个人联系。

出现了道德问题

这听起来吓人,但是也许更糟。人工智能技术展日新月异,我们最终将面临一个奥威尔的教义。政府将会有更多的授权,他们会通过人工智能知道当我们在做什么。相机安装在面部识别将关注你的一举一动,麦克风可以识别在演讲,在说什么,预测算法将决定你的下一步。

这带来了另一个问题,政府更容易找到你,就越容易摆脱他们讨厌的人。南京iphone6电池多少钱接下来的“希特勒”更高效的工作,没有寻找的人不喜欢,因为已经知道他们在哪里,可以随时找到。政府对他们能找到是谁,那么更容易惩罚反对派。有说服力的错误文本和视频会淹没网络,传播是最不可靠的,无用的信息。我们必须保持警惕的人工智能。

本文链接:https://www.zhaoiphone.cn/ai/820.html
版权声明

本站资讯除标注“原创”外的信息均来自互联网以及网友投稿,版权归属于原始作者,如果有侵犯到您的权益,请联系我们提供您的版权证明和身份证明,我们将在第一时间删除相关侵权信息,谢谢.联系地址:977916607@qq.com

标签列表