人工智能模仿人类智能对执行的简单或复杂任务的推理、学习和感知。这种智能可以在医疗保健、金融、制造、物流和许多其他行业中看到。但是有一个共同点——在使用 AI 概念时会出错。犯错是很普遍的,人们无法从后果中隐藏自己。因此,与其关注它的影响,我们还需要了解可能发生此类错误的原因,然后修改我们通常在实时场景中执行的做法。
让我们花点时间了解一下在开始学习人工智能时我们必须避免的错误:
1. 直接用深度学习开启你的 AI 之旅
深度学习是人工智能的一个子部分,其算法的灵感来自我们大脑的函数和结构。您是否试图将我们大脑的结构及其功能与神经网络联系起来?是的,你可以(在人工智能的背景下)因为我们大脑中存在神经元,它们收集信号并将它们分成驻留在大脑中的结构。这让我们的大脑了解任务是什么以及必须如何完成。现在,您可以在了解了一些神经网络之后,直接尝试使用深度学习(或 DL)开始您的 AI 之旅!!
毫无疑问会有很多乐趣,但重点是最好不要一开始就引入 DL,因为它在处理较小的数据集时无法实现更高的性能。此外,实践 DL 不仅困难而且昂贵,因为创建和监控 DL 算法所需的资源和计算能力以更高的成本提供,从而在管理费用的同时产生开销。即使在当您尝试开始解释涉及DL算法的网络设计和超参数时,你会觉得敲打你的头,因为它是非常难以解释的行为,一个DL算法要表达的序列的精确解释。所有这些挑战都将出现在您的 AI 旅程中,因此,不直接引入深度学习是有益的。
2. 使用受影响的 AI 模型
一个受影响的人工智能模型总是会以不公平的方式存在偏见,因为它收集的数据将倾向于现实的现有偏见。这种倾向不会让人工智能算法识别相关特征,从而为现实生活场景提供更好的分析和决策。因此,数据集(经过培训或未经培训)将映射不公平的模式,并且永远不会在基于 AI 的系统遵循的决策过程中采用支持公平和忠诚的平等主义观点。
要了解受影响的 AI 模型的负面影响,我们可以查看 COMPAS 案例研究。 COMPAS 是一种受 AI 影响的工具,其完整形式是替代制裁的惩教罪犯管理分析。美国法院使用它来预测被告是否可能成为惯犯(刑事再犯不同类型的罪行)。当这个工具检查数据时,结果真的令人震惊。它通过得出结论认为 45% 的黑人被告是惯犯,而 23% 的白人被告被归类为惯犯,从而预测了虚假累犯。该案例研究对该工具使用的 AI 模型的整体准确性提出了质疑,并清楚地描述了这种偏见如何在美国人民中引发种族歧视。从今以后,最好不要使用有偏见的 AI 模型,因为它可能会在做出有影响力的决策过程中产生一系列错误,从而使当前情况恶化。
3. 尝试将 AI 算法的准确性与每个业务相匹配。领域
每个业务。 (业务)领域不会试图在与软件开发或客户服务相关的每个正在进行或即将到来的 AI 流程中保持准确性。这是因为企业还考虑其他特征,例如稳健性、灵活性、创新性等。还在想是什么原因!!答案是——准确性是最重要的,但可解释性有其自身的潜力!
例如,负责为商业企业创造良好收入的客户检查准确度限制在 90%,但他们也在了解当前业务问题的同时检查 AI 算法的稳健性和灵活性,然后预测结果更接近他们的实际值。如果算法未能分解问题,并且在预测结论时没有意识到数据解释的重要性,客户会直接拒绝这种分析。在这里,他们实际寻找的是 AI 算法能够很好地解释输入数据集,并在适当地评估决策矩阵时展示稳健性和灵活性。从今以后,您不希望在当前或未来时代为企业生成可见性的每个域都匹配准确性。
4. 在人工智能概念上浪费时间
混淆 AI 概念不会让您更深入地了解 AI 算法。这是因为那些理论概念受某些条件的约束,在实时情况下不会得到相同的解释。例如,当您注册一门课程时,比如数据科学课程,课程中嵌入了各种术语。但是当应用于实时场景时,它们的行为是否相同?
当然不是!他们的结果各不相同,因为暴露于情境中的术语会受到各种因素的影响,只有在参与这些实用技术如何很好地适应更大的背景及其工作方式后才能理解其结果。所以,如果你一直在胡扯人工智能的概念,就很难与它的实际意义保持更长时间的联系。因此,解决现有的现实问题将变得具有挑战性,这将对您的决策过程产生负面影响。
5. 试图迅速抢购
在这里快速抢购意味着在实践中尽快学习最大数量的人工智能概念,并尝试在更短的时间内创建人工智能模型(由不同的特征组成)。这么着急是没有好处的。相反,这将迫使您在没有验证为很好地理解业务需求而建模的当前数据集的情况下得出结论。此外,这样的策略会让你的头脑完全混乱,你的口袋里会有更多的问题而不是解决方案。
我们可以通过一个现实生活中的例子来理解这一点。假设你在厨房准备你的饭菜。现在,您的兄弟进来并要求您在 20 分钟内准备点心。思考我是否被困或困惑!!是的,在决定是否应该为您的兄弟准备饭菜或零食时,您将面临无尽的困惑。因此,这将影响您准备优质膳食/零食的准确性,因为现在您有 20 分钟的时间限制。当人们试图抢购嵌入在基于 AI 的系统/模型中的所有术语和概念时,就会发生这种情况。因此,与其试图快速抓住一切,不如遵循慢而稳的原则。它将通过选择经过适当验证的数据集来帮助您解决现有的 AI 挑战,而不受不准确结果的约束。