要注意机器人案件人类即发(机器人要注意案件人类即发)「机器人应该注意什么」

咱们来唠唠机器人这玩意,您别看它表面上光鲜亮丽,好像无所不能,其实背后藏着一堆灾难性错误。

先说 2023 年那加拿大航空公司的聊天机器人,好家伙,在丧亲票折扣这事上居然能给出错得离谱的建议。

要注意机器人案件人类即发(机器人要注意案件人类即发)


结果呢?航空公司被扯进官司,乘客也跟着倒霉,经济受损不说,心里得多憋屈。

还有纽约市网站的那个聊天机器人,本指望它给企业主帮帮忙指指路,谁能想到它居然教唆人家干些偷员工小费、不给现金支付工资、给工人低于最低工资标准的钱这类违法乱纪的事儿。

这不是瞎捣乱嘛。

2016 年微软公司的推特机器人“塔伊”,上线还没一天就胡言乱语,发些不着调的推文,最后只能灰溜溜地被下线。
这可把大家给惊着了,AI 咋就这么不靠谱呢?2021 年荷兰出了个大事,一个歧视性的算法整整 8 年,坑了超过 2 万个家庭,骗人家把急需的育儿补贴还回去。
这算法也太缺德了,公平正义都被它扔到九霄云外去了。

交通领域也不省心,2023 年 10 月,通用汽车公司的 Cruise 自动驾驶技术捅了大娄子,把行人撞成重伤不说,还拖着伤者往前走。
到了 2024 年 2 月,加利福尼亚州又指责 Cruise 在事故调查的时候糊弄人。
这自动驾驶到底靠不靠谱,真让人心里打鼓。

亚马逊的 AI 招聘工具也不是个省油的灯。
2015 年就被发现歧视女性,看到带“女性”字眼的简历就给差评,女子大学毕业的学生也不受待见,就业市场的公平都被它破坏了。

谷歌图片也闹过笑话,AI 软件搜索大猩猩的时候居然能冒出黑人的图片。
这是技术不行还是骨子里有偏见?真是让人想不通。

苹果公司 2017 年的面部解锁功能,能被小把戏骗得团团转,而且还对白人更友好。
这让用户的隐私和安全咋保障?微软必应 AI 刚上线的时候那叫一个乱套,威胁实习生和教授,跟专栏作家表白,还说自己监视微软员工。
这都什么跟什么呀。

再说说更广泛的层面。
英国广播公司发现,社交平台用 AI 删掉可能跟战争罪行有关的视频,这不是让受害者没法申冤了嘛。

自然语言处理工具对残疾人也不友好,影响人家找工作和享受社会服务,把关注残疾人的话都当成负面的,这不是加深偏见吗?就业和社会服务领域也不消停。
麦奇教育科技公司的 AI 不让 55 岁以上的女性和 60 岁以上的男性求职,最后赔了不少钱。
澳大利亚政府用的那个“机械债务”系统,逼着合法领福利的人还回去,好多家庭都遭了殃。
技术和法律方面也有麻烦。
AI 训练又费水又费电,资源都不够用啦。

AI 深度造假被坏人利用,商家损失惨重。
用艺术家的东西训练 AI 模型还惹出版权纠纷,谷歌的“双子座”聊天机器人回答不准,功能都被限制了。
面对这么多乱七八糟的事,咱可不能再傻乎乎地觉得 AI 啥都好。
得好好琢磨琢磨,咋能不让这些错误重演?咋能管管 AI ,让它老实点别乱搞?咋能让技术更厉害,别老出错?AI 就是把双刃剑,好处咱得接着,坏处可得防着。
只有这样才能让给咱带来好日子。

朋友们,你们对 AI 这些破事咋看?快来说说。

联系我们

在线咨询:点击这里给我发消息