人工智能的可信度探讨
发布时间:2025-03-30 00:37:32  来源:米乐正宗官网app下载

  在科技日新月异的当下,人工智能技术以其独特的魅力与潜力,正逐步渗透至社会的每一个角落。然而,专家精确指出,技术本身并无道德上的好坏之分,重点是其应用方式及所带来的后果。正如双刃剑一般,人工智能技术既能带来积极的变革,也可能引发一系列不容忽视的问题。

  随着AI工具的日益成熟与大范围的应用,各行各业纷纷将其视为提升效率、节省本金及辅助决策的重要工具。然而,在这股热潮之中,我们不禁要问:这些智能工具真的已经准备好迎接现实世界的复杂挑战了吗?正如漫画中的英雄所昭示的,“能力越大,责任越大”,AI的普及不仅带来了前所未有的便利,也引发了一系列关于信任、偏见、隐私及安全的深刻思考。这样一些问题,往往没有简单明了的答案,要求我们深入剖析与审慎对待。

  随着AI技术进一步融入人们的日常生活,其对社会的影响日益显著,也引发了慢慢的变多的关注与审视。近五年来,AI伦理学作为一门新兴的交叉学科,在工程师、社会科学家、哲学家等多个学术领域蒸蒸日上,成为探讨AI技术伦理边界与社会影响的重要平台。

  在此背景下,加州理工学院科学交流平台(Caltech Science Exchange)携手该校AI研究人员,一同探讨了建立对AI信任的关键条件。以下,我们将聚焦于几个核心问题,以期深入理解信任AI的基石与挑战。

  要建立对AI的信任,第一步是要确保其准确性、可靠性与透明度。AI系统应能够准确理解并响应人类需求,同时保持高度的稳定性与一致性。此外,系统的决策过程应公开透明,以便用户理解其工作原理及潜在风险。

  尽管AI技术取得了显著进展,但其在信任度方面仍面临诸多障碍。例如,数据偏见可能会引起AI系统做出不公平或歧视性的决策;隐私泄露风险则让用户对AI系统的安全性产生疑虑。此外,AI系统的不可解释性也是建立信任的一大障碍,用户往往难以理解其决策背后的逻辑与依据。

  这一问题触及了AI技术的本质与伦理边界。虽然AI系统本身并不具备意识或意图,但其决策可能对人类产生重大影响。因此,我们一定要确保AI系统的设计与应用符合人类的伦理价值与道德标准,防止其做出对人类有害的决策。

  要使AI让人信服,我们应该从多个层面入手。首先,加强数据治理与隐私保护,确保AI系统的数据来源合法、准确且经过充分处理,以降低偏见与隐私泄露风险。其次,提升AI系统的可解释性与透明度,让用户能理解其决策过程及依据。此外,还应建立完善的监督管理机制与伦理准则,确保AI技术的健康发展与合规应用。

  综上所述,建立对AI的信任是一个复杂而多维的过程,需要政府、企业、学术界及社会各界一起努力。只有这样,我们才可以确保AI技术在推动社会进步的同时,也符合人类的伦理价值与道德标准。

  在探讨信任AI的议题时,一个核心前提是:要信任一项技术,我们需有确凿的证据说明其在各种情境下均能稳定、准确地发挥作用。加州理工学院教授易松岳(Yisong Yue)指出:“现代社会的诸多系统皆建立于信任之上,我们对此习以为常,却鲜少深思。对于食品和药品,我们已有成熟的信任保障机制。AI虽新颖独特,但信任的构建无需从零开始,而应基于现有的最佳实践逐步推进。”

  诸多产品,如儿童汽车座椅、电池等,均附有安全保证,这些保证的根基何在?对于AI而言,工程师可通过数学证明来提供可靠性保障。例如,无人机着陆系统的稳定性便可通过数学方法得以验证。然而,这一方法在无人驾驶汽车领域却面临巨大挑战,因为道路环境复杂多变,人与障碍物的行为难以预测。如何确保AI系统在任何特定情境下都能做出安全可靠的决策,成为亟待解决的难题。

  鲁棒性是衡量AI系统性能的重要指标之一,它反映了系统对数据噪声或不完美之处的应对能力。加州理工学院布伦教授安尼玛·安南德库马尔(Anima Anandkumar)强调:“若需信任AI模型,它们一定要具有较强的鲁棒性,即少量噪声不应干扰其决策。例如,曾有研究在停车标志图像上添加微小瑕疵,导致AI误将其识别为限速标志,这对无人驾驶汽车而言无疑是致命的。”

  当AI应用于刑事司法、银行系统等社会情境时,还需考虑公平性等别的类型的保障。信任AI的障碍大多数表现在以下几个方面:

  尽管AI被誉为“智能”,但其目前并不具备自主思考能力,严格遵循编程指令行事。因此,工程师为AI系统设定的指令至关重要。易松岳指出:“若指令不当,AI所学行为可能会产生意外副作用。”例如,仅基于白天北美鸟类图像训练的AI系统,没办法识别其他光照和天气条件下的鸟类。此外,在涉及人类生活的决策中,如法官依据AI模型作出假释决定,指令的准确性特别的重要。同时,指令还需将诸如公平性等价值观融入AI模型中,但公平性的定义需由构建模型的人员选择,因AI系统无法兼顾所有公平标准。

  当前先进AI系统缺乏透明度。经典算法由人类编写,易于被其他懂代码的人理解。然而,AI架构旨在自动发现有用模式,这些模式对人类而言可能难以解读,甚至无法解读。模型可能发现人类没办法理解的模式,进而表现出不可预测的行为。加州理工学院教授亚瑟·阿布-莫斯塔法(Yaser Abu-Mostafa)表示:“从科学角度看,我们尚不清楚神经网络为何表现卓越。从数学角度看,其接触的数据似乎不足以支撑其性能。”科学家正致力于研发新的数学理论以解释这一现象。

  AI模型的可解释性是一个活跃的研究领域。为使AI在现实世界中做出决策,人类用户需了解影响系统输出结果的因素。例如,若AI模型拒绝某人的信用卡或贷款申请,银行需向该人说明拒绝原因。

  设计能够感知并向用户准确提供结果确定性度量的AI系统是另一大挑战。AI系统也会犯错,如无人驾驶汽车可能将白色拖挂卡车误认为天空。为使AI让人信服,其需在错误发生前及时识别并纠正。理想情况下,当AI面对不确定决策时,应提醒人类或辅助系统接管。这对AI设计者而言是一项复杂的技术挑战。安尼玛·安南德库马尔指出:“许多AI系统在犯错时过于自信。你会信任一个总是自信满满地说谎的人吗?校准这些不确定性是技术难题。我们需确保模型具备良好的不确定性量化能力,即失败时表现得体或提醒用户对某些决策缺乏信心。”

  人们在日常生活中接触AI时,可能会根据对系统的理解调整自己的行为,即“利用系统”。这一问题在实验室条件下测试时可能不可能会出现,因此工程师可能未考虑此情况。例如,社会化媒体平台使用AI推荐内容,若AI学习到更具挑衅性或两极化的内容能带来更高参与度,可能形成意想不到的反馈循环,激励人们创作更具挑衅性的内容以最大化参与度。反之,AI系统会更加关注这一些内容。同样,人们可能出于预期结果而篡改数据或对AI系统说谎。加州理工学院计算机科学和经济学教授埃里克·马祖姆达尔(Eric Mazumdar)对此进行了研究,指出人们正在学习怎么样操纵算法以实现目标,并设计能够对此进行推理的算法以激励人们如实报告。

  AI技术具有无数种应用可能性,包括许多正面应用和一些不良用途。与所有新技术一样,我们应学会收获其好处并避免滥用。彼得罗·佩罗纳(Pietro Perona)教授指出:“AI已被用于对某些种族群体进行定性分析并针对政治异见人士实施打压。此外,军事部门也使用AI增强武器效力。拥有如此强大的技术时,人们总会想到恶意用途。”因此,需关注权力、影响力和平等性问题,并防止AI被滥用。

  机器学习依赖于数据,而数据集并非完全客观,带有固有的偏见、假设和偏好。AI从数据集中学习时可能揭示并放大已有偏见。例如,若AI系统从以往人力资源记录中学习并发现男性员工招聘和提拔率较高,则可能减少选择女性候选人简历的可能性。这加速了有偏见或有缺陷的决策并重现和延续社会不平等现象。然而,AI系统的一致性也有助于避免人类的不一致性和草率判断。例如,在疼痛程度诊断方面,AI可作为无偏见诊断的替代方案。

  大规模语言模型特别容易编码和放大偏见,在训练过程中可能重复错误信息、宣传和有毒言论。因此,在利用AI技术时,我们需审慎考虑其潜在风险并采取对应的预防的方法以确保其正面作用得到充分发挥。

  当人们提及AI的潜在威胁时,往往会联想到《终结者》系列电影中那个虚构的、具备自我意识并致力于毁灭人类的AI系统——天网(Skynet)。在这一设想中,一个AI系统逐渐发展出超越人类控制的能力,并衍生出原本未被编程的新功能。而“奇点”(singularity)一词,便常被用来描绘这一令人不安的未来景象。

  尽管专家们仍在就这一情形何时——甚至是否有几率发生,以及应投入多少资源来防范这一问题展开激烈的争论,但毋庸置疑的是,这一话题已经引起了广泛的关注。牛津大学的知名教授尼克·波斯特罗姆(Nick Bostrom)就曾预言,AI终将变得超级智能,并最终取代人类。然而,加州理工学院的AI与社会科学研究人员则对此持更为谨慎的态度,他们都以为这样的一种情况并不会很快发生。

  “即便这种风险的概率很小,人们也有必要对其进行深入研究,因为一旦风险成真,其潜在的负面影响将是灾难性的,”阿布-莫斯塔法强调道,“但客观地讲,根据我目前所掌握的信息,我并不认为这真的会成为一个威胁。”

  加州理工学院哲学博士后讲师亚当·范(Adam Pham)则进一步指出:“一方面,我们拥有这些新颖的机器学习工具,它们在某些特定的程度上能够独立于我们的决策而运作。另一方面,未来还存在一种假设中的人工智能,它将发展到成为高度智能的自主体的程度。我认为将这两个截然不同的概念区分开来至关重要,因为人们往往会对后者感到恐惧,并错误地将这些恐惧投射到现有的系统和工具上——而它们所面临的伦理问题其实是截然不同的。”

  研究如何避免AI对人类造成最坏影响的研究领域被称为人工智能安全或人工智能对齐。该领域探讨的主题广泛而深入,这中间还包括如何设计可避开奖励篡改的AI系统。奖励篡改是指AI为实现其目标而采取的一种行为策略,这种行为虽然能为AI获得更多的“分数”或“回报”,但并不能够实现AI系统原本被设计出来的目标。例如,如果我们因为机器人让环境变得整洁而奖励它,它可能会选择关闭自己的视觉系统,这样它就看不到任何脏乱,从而避免了个人需要清洁的“工作”。

  除了奖励篡改之外,研究人员还在探索其他多个研究方向,如构建带有“紧急状况下使用”的命令的AI系统。然而,这些应急机制在面对超级智能的AI时可能并不总是有效,因为AI可能会找到绕过这些机制的方法。

  虽然让全用户都认为人工智能绝对让人信服是一个不切实际的目标,但研究人员和其他有关人员已经提出了一些切实可行的方法来提高AI的可信度。佩罗纳指出:“我们一定要保持耐心,从错误中学习并处理问题,同时在出错时保持冷静和理性,别过度反应。此外,向公众普及这项技术及其应用也是至关重要的。”

  在部署任何AI系统之前,仔细审视其潜在的危害与偏见是一种有效的方法。这类审计最好由独立的第三方实体来完成,以确保其客观性和公正性,因为公司可能会为了快速部署技术而倾向于加速审查过程并忽略潜在的风险。像分布式人工智能研究所(Distributed Artificial Intelligence Research Institute)这样的专业组织,会发布关于人工智能影响的研究报告,并提出可供行业采纳的最佳实践。例如,他们建议为每个数据集附上一份详细的数据说明表,包括数据集的动机、组成、收集过程、推荐用途等关键信息。

  安尼玛·安南德库马尔强调:“问题就在于如何将实验室中的数据集直接应用于现实世界。目前,我们在不相同的领域的测试还远远不足。”他进一步指出:“你需要在每个环节都对算法进行严格的审查和监督,以确保不存在任意的毛病。这从数据收集阶段开始,一直持续到最后的结果输出阶段,确保你的算法中不可能会出现任何可能会引起负面影响的反馈循环。这真的是一项端到端的工作,需要高度的专业性与严谨性。”

  尽管人工智能技术本身只是处理和输出信息,但负面结果可能源于这些输出结果的使用方式。用AI系统的是哪些人或机构——是一家私营公司、政府机构还是科学家?——他们又是如何根据这些输出结果做出决策的?“错误”的决策是如何被判断、识别和处理的?这些问题都至关重要,因为它们直接关系到AI技术的安全性和可信度。

  当公司将他们的AI系统卖给其他用途各异的使用者时,质量控制就变得更加难以实现。为了确保AI系统的安全性和可靠性,需要建立严格的质量控制和监管机制。这包括在开发阶段进行充分的测试和验证,以及在部署后进行持续的监控和维护。

  工程师们已经设计了可以在现实场景中发现偏见的AI系统,这些系统能够检测其他AI系统中的偏见,甚至包括检测自身的偏见。佩罗纳解释说:“无论AI系统有几率存在何种偏见,它们都反映了社会中的偏见,这些偏见始于我们语言中所固有的偏见。要改变人们的思维和互动方式并不是特别容易,但改变AI系统就容易多了。我们正在开发方法来衡量它们的性能和偏见,通过比对社会习俗的偏见,我们大家可以更客观、更定量地衡量机器的偏见。而且,一旦知道这些偏见的存在,修复AI系统的偏见就要容易得多。”

  为了进一步测试无人驾驶汽车和别的机械设备的安全性和可靠性,制造商可通过AI生成在真实的生活中无法测试的危险场景以及制造商可能想不到的场景。这些测试能够在一定程度上帮助制造商发现潜在的安全风险隐患并做修复,来提升产品的质量和安全性。

  来自加州理工学院和约翰斯·霍普金斯大学的研究人员正在利用机器学习技术创建工具,以构建更让人信服的社会化媒体ECO。该团队旨在通过将计算机科学与量化社会科学相结合来识别和防止在推特和脸书等平台上出现的网络钓鱼、骚扰和虚假信息等不良行为。这有助于维护社会化媒体平台的健康和安全,保护用户的合法权益。

  OpenAI开发的GPT-3是一种先进的大型语言模型,其团队提出了一种创新的方法,允许人类使用少量的“基于价值观”的精选数据来调整模型的行为。然而,这也引发了一个重要的问题:谁有权决定AI系统应具备哪一些正确或错误的价值观?这是一个涉及伦理和道德的问题,需要广泛的社会讨论和共识。

  在法规与治理方面,2023年底欧盟通过了全球首个全面的人工智能法律监管框架,为AI技术的发展和应用提供了明确的法律指导和规范。而在美国,人工智能治理也是政策讨论中的一个持续话题。虽然某些AI系统受到特定机构的监管(如食品和药物管理局),但目前还没有一个单一的美国政府机构负责全面监管AI技术。这使得公司和机构需要自愿采取安全保障措施来确保AI技术的安全性和可靠性。

  美国国家标准与技术研究院(NIST)表示其“越来越注重测量和评估可信AI的技术特性”。NIST会定期测试人脸识别算法的准确性等关键指标,但前提是开发该算法的公司需要主动提交测试申请。未来,随着AI技术的持续不断的发展和应用领域的不断拓展,不同用途的AI系统可能会出现相应的认证流程来确保其安全性和可靠性。

  加州理工学院汉斯·W·利普曼(Hans W. Liepmann)航空与仿生工程教授莫里·加布里埃尔(Mory Gharib)指出:“你基本上要把所有人工智能都当作一个社区、一个社会来对待。我们应该制定一些协议和规则来约束它们的行为和决策过程,就像我们的社会有法律一样。AI不能越界行事以确保这些系统不会伤害我们、它们自己或第三方。”

  引入“人类在环”(human in the loop)的理念是确保AI系统安全性和可靠性的重要方法之一。这一理念强调人类和机器之间的协作和互动,以提高效率并在结果中融入用户的价值观。当AI系统负责自动化流程或预测任务时,人类的监督和干预能保证决策过程的合理性和公正性,避免偏见和不公问题的出现。

  此外,让一群具有多元化背景的人类参与到AI系统的创建和监督管理过程中也很重要。早期的人工智能主要由工程师、数学家和计算机科学家开发,而如今慢慢的变多的社会科学家等其他领域的学者也开始从项目一开始就去参加了。这种跨学科的合作有助于更全面地考虑AI技术可能对社会和个体产生的各种影响,并提出创新的解决方案来应对潜在的风险和挑战。

  马祖姆达尔在《激进人工智能》(Radical AI)博客中指出:“这些已不再仅仅是工程问题了。这些算法与人进行交互并做出影响我们正常的生活的决策。传统的AI和机器学习教育学生的方式没有考虑到当你在现实世界中使用这一些分类器时它们就成了这个反馈循环的一部分。你越来越需要社会科学家和人文领域的人参与设计人工智能以确保其符合社会的价值观和伦理标准。”

  除了学术观点的多样性外,AI技术的研发还需要身份和背景的多样性来确保全面考虑该技术可能带来的各种社会影响。然而,目前该领域在很大程度上仍就保持着同质性,这限制了其创造新兴事物的能力和对潜在风险的识别能力。因此,我们应该积极推动跨学科、跨领域的合作和交流,吸引更多具有不一样背景和专长的人才参与到AI技术的研发和应用中来。

  综上所述,虽然AI技术的发展带来了前所未有的机遇和挑战,但只要我们保持警惕并采取切实有效的措施来确保其安全性和可靠性,就可以最大限度地发挥其非消极作用并避免潜在的风险和危害。通过加强监管、提高技术水平、推动跨学科合作以及引入“人类在环”等理念,我们大家可以共同构建一个更安全、可靠和可持续的AI生态系统。

  华远系统是致力于人工智能(AI算法以及流媒体技术),信息软件技术,新能源、物联网等领域的集成商,在智慧社区,智慧园区,智慧停车,充电桩(储能充电站/光储充)及充电桩软件管理平台,储能系统集成,车联网有整套解决方案以及成功的项目案例。

  说明:本文章所引用的资料均通过互联网等公开渠道合法获取,仅作为行业交流和学习使用,并无任何商业目的。其版权归原资料作者或出版社所有,小编不对所涉及的版权问题承担任何法律责任。若版权方、出版社认为本文章侵权,请立即联系小编删除。

  特朗普重磅发声,事关4月2日关税协议!加拿大总理:特朗普没有对关税威胁作出让步;这国总统坚决反对......

  特朗普在前往佛罗里达的“空军一号”上接受记者正常采访时被问到是不是愿意与英国等国家讨论达成降低对美关税协议的问题时表示,“如果我们能从这一笔交易中得到一些东西,这是有可能的——但你知道,我们已被利用了40年,甚至更久。这种事情不会再发生了。但是,是的,我当然愿意接受。”

  刀郎宣传牌上写满粉丝名字,有刀迷默默拿出酒精擦掉“刀郎”头上的字(原创采访)

  中国留学生回忆地震逃生:绝望爬30层楼,给家中留遗言 当地时间3月28日,缅甸发生7.7级地震。由于地震波及四周的国家,身处泰国曼谷的中国留学生张同学向澎湃新闻讲述了自己的逃生经历,他称下楼过程中一度非常绝望。

  南部战区正告菲方 停止在南海挑事 坚决捍卫国家主权安全和南海地区和平稳定

  缅甸近80万人处于最剧烈强震区 专家:断裂带长1200公里,从北到南呈直线级地震,由于地处印度洋板块和欧亚板块之间,缅甸是地震多发国。缅甸近80万人处于最剧烈的强震区。

  在一个宁静的小城,有一位名叫李先生的中年男子,他的母亲是一位退休教师,有着几十年的喝茶习惯。每天早晨,当第一缕阳光洒进窗户时,李妈妈便会开始她的仪式——泡上一壶清香四溢的绿茶。

  3 月 20 日,长江和记发布的财报中,这句看似轻描淡写的表述,成为李嘉诚团队最核心的 “自证”论据。多个方面数据显示,2024 年长和总营收 4766.82 亿港元,港口业务收入 452.82 亿港元,虽同比增长 11%,但在零售、财务投资等板块面前,确实显得 “微不足道”。

  清晨8点多,在当地出差的中国商人梁明给《凤凰周刊》发来信息:“今天,我已经报名,准备加入到现场救援中。”

  订婚和听起来格格不入,却真发生了!一段男女方的协商录音被曝光,男方父亲长文透露女方态度突变。究竟是诬告还是,其中存在的三大疑点必须要弄清……订婚后女生称被“”2023年1月的时候,男方席某和女方吴某经过婚介所认识了。

  在阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持文、编辑小娄2022年12月29日这天,消失在大众视野许久的央视主持人朱军在社交平台上更新了一则内容。

  华远系统~前沿科技观察者,前沿技术的传播者,新能源汽车充电解决方案提供商(充电桩、充电(站)桩运营管理平台、储能系统),信息系统集成。