什么是文件系统?
制造业数字化转型五大困境 2020年的疫情给大多数制造型企业带来了巨大的冲击,由于供应链的断裂和企业防疫管理不善导致的资金链的断裂以及停工破产不在少数,那些活下来的企业必须思考在疫情反复的这段时间内如何继续活下去、如何进行转型与变革。
如果说疫情对制造业数字化转型有鞭挞的推动作用,那么新基建的提出则是拉动了国内制造业进入数字化转型的“高铁时代”。在国家政策和经济环境利好的情况下,制造企业进行数字化转型还是面临着很多的困难,主要表现在战略方向模糊、价值闭环缺失、转型意识薄弱、人才建设不足、基层参与度低等五个方面。 Namobot网站的迈克尔·雷诺兹(Michael Reynolds)解释说:“我们面临着一个非常现实的机会,即AI反乌托邦。”该网站通过大数据和算法来生成博客名称。 “包含人类解释和认知评估的错误数据集会使机器学习模型将人类偏见转化为算法。” 这不是遥不可及的事,但已经在发生。 算法偏差的不幸示例 风险评估工具通常用于刑事司法系统中,以预测重罪犯再次犯罪的可能性。从理论上讲,这种少数派报告类型的技术用于威慑未来的犯罪。但是,批评家认为这些程序会伤害少数群体。 ProPublica在2016年对其进行了测试,当时它检查了7000多人的风险评分。该非营利组织分析了在佛罗里达州布劳沃德县被捕了两年以上的囚犯的数据,以了解在接下来的几年中谁被指控犯有新罪行。 结果表明许多人已经过于担心了。根据该算法,黑人被告犯罪的可能性是白人的两倍。但事实证明,只有20%的人预计会从事犯罪活动。 同样,警察使用的面部识别软件最终会严重影响非裔美国人。根据美国联邦调查局(FBI)合着的一项研究,在西雅图等城市使用的面部识别对黑人的准确性可能较低,从而导致身份识别错误和误捕。 算法偏差不仅限于司法系统。黑人通常被剥夺了为改善患有复杂疾病的患者提供医疗服务的程序。同样,在相同疾病下,与白人患者相比,这些程序不太可能将黑人患者转介给黑人患者。 简而言之,科技公司正在将自己的偏见注入系统。旨在做出基于数据的公平决策的确切系统。 那么,如何解决这种情况呢? 透明度是关键 算法偏差是一个复杂的问题,主要是因为很难观察到。程序员常常困惑于发现他们基于性别和肤色对人的歧视算法。去年,史蒂夫·沃兹尼亚克(Steve Wozniak)透露,苹果给他的信用额度是他妻子的10倍,尽管她的信用评分更高。 消费者很少会发现这种差异。审查人工智能部分歧视的研究也需要大量时间和资源。因此,倡导者要求在整个系统的运行方式上提高透明度。 该问题值得在全行业范围内解决,但在此过程中仍存在障碍。即使发现算法存在偏差,企业也不允许其他人分析数据,并且调查不够彻底。苹果公司表示将调查沃兹尼亚克问题,但到目前为止没有任何进展。
提高透明度将要求企业向观察员透露他们的训练数据或接受第三方审核。程序员还可以选择主动进行测试,以确定将其系统应用到属于不同背景的个人时的方式。 (编辑:淮安站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |