尽管我们希望依靠机器来改善我们的思维,但事实证明,人与机器之间的相互作用是复杂的。
人工智能(AI)也许不能拯救世界,但它同样不可能毁掉它。事实上,如果我们在过去几年的繁荣与萧条的炒作周期中了解到任何有关AI的知识,那就是AI比我们想象的更强大,同时也更加依赖人们来实现这种效力。
换句话说,如果 AI 不起作用,我们可能只是问题所在。
SEE:人工智能:商业领袖指南(免费PDF)(技术共和国)
几年前,我们的机器人霸主似乎准备推动"去"天网和毁灭我们永远。我们还在等对AI的强烈反应,大部分只是对AI的误解,事实上,它(被供应商对其近期潜力的过度承诺所激发)。但它也是制造机器像人类一样"思考"的内在困难的函数。
正如《卫报》社论所详述的:
人类最难复制的技能是无意识的,是几千年进化的产物。在AI中,这被称为莫拉韦克的悖论。未来学家汉斯·莫拉韦克写道:"我们都是感知和运动领域非常优秀的奥运选手,我们如此优秀,让我们的困难看起来很容易。正是这些,我们的大脑擅长于隐藏但复杂的过程,机器学习试图复制。
对于我们来说,这些看似简单的事情对于编程来说非常复杂。另一方面,机器可以快速梳理大量数据,执行模式匹配等人类无法复制的壮举。例如,T-Mobile 使用机器学习使客户服务代理能够实时访问客户数据,从而改善支持体验。起亚汽车则使用AI分析车内的计算机视觉数据,以优化驾驶体验(个性化座椅位置等)。
都很好
事实上,正是这种取而应使人工智能变得有用,即使它可能还没有像我们想象的那样智能。但它也是 AI 风险变得最明显的地方。同样来自《卫报》的社论:"AI的承诺是,它将使机器能够从数据中发现模式,并比人类更快、更好地做出决策。如果他们做出更坏的决定更快,会发生什么情况?"
正如Rishidot创始人克里希南·苏布拉马尼安所强调的:"计算机做出错误决定的可能性由于那些有偏见的人输入数据而变得复杂起来,正如Rishidot创始人克里希南·苏布拉马尼安所强调的:"在人们之间,建筑中几乎没有多样性。这些AI算法。这可以通过有意识地雇用不同的数据工程师和科学家来缓解,但这是一个棘手的难题。
这一切都变得棘手,因为人们(无论是否构建 AI 模型的人)都受到来自计算机的数据的影响。通过这种方式,我们可以越来越远离原始数据,越来越不能为我们的模型提供良好的数据,正如曼朱纳斯·巴特所写:"人们以数据的形式消耗事实。但是,数据可以发生变异、转换和更改,所有这些都是为了便于使用。我们别无选择,只能生活在高度情境化的世界观范围内。抓住细微差别了吗?我们依靠不断增加的数据来做出决策,但这些数据同样是由机器越来越多地进行中介,这些机器试图用使数据更易于使用的方式将数据反馈给我们。
简而言之,我们不是"了解事实"。正如Bhat所继续的,"数字技术不仅增强了人类的推理能力,而且倾向于影响这种推理。换句话说,AI受到人力投入的影响,但反过来又影响这些投入。
这并不是说 AI 是不可能的。如前所述,现在有一些实际例子说明公司将 AI/ML 很好地用于当前。然而,建议我们对待AI时应更加谨慎和谦卑,同时认识到AI常常会受到我们的影响,无论是好是坏。
有关人工智能的更多信息,请查看 Tech共和国的"制药研究人员测试人工智能以预测视力损失"和"为什么人工智能导致就业增长"。
免责声明:我为 AWS 工作,但在我的工作中,我与任何构建 AI 相关产品的团队没有(无论是直接的还是间接的)参与。
评论专区