摘要:人工智能(AI)融入结构工程,为分析、设计和维护带来了巨大希望。然而,它也引发了严峻的伦理和治理挑战——包括偏见、缺乏透明度、问责空白和公平问题——这些在公共安全至关重要的学科中尤为显著。本研究通过八个虚构但贴近真实的案例研究来探讨这些问题,这些案例阐明了可能出现的伦理困境,例如预测模型中的算法偏见以及人工智能生成建议与人类工程判断之间的张力。作为回应,本研究提出了一个负责任人工智能实施的结构化框架,该框架分为三个关键领域:(i) 技术基础(侧重于偏见缓解、稳健验证和可解释性);(ii) 运营和治理考量(强调行业标准和人机协作监督);以及 (iii) 专业和社会责任(倡导工程师的公平性、可及性和伦理意识)。该框架为工程师、政策制定者和研究人员提供了可操作的指导,旨在使人工智能的应用符合伦理原则和监管标准。除了提供实用工具,本研究还探讨了人工智能更广泛的理论和制度影响,包括模型漂移相关的风险、生命周期监督的必要性以及文化和地理适应性的重要性。它还概述了未来的挑战和机遇,例如将人工智能伦理纳入工程教育,以及考虑量子计算和数字孪生等新兴技术的伦理影响。本研究并非提供规定性答案,而是旨在就人工智能在结构工程中不断演变的角色发起一场重要对话,使利益相关者能够管理其益处和风险,同时维护信任、公平和公共安全。
人工智能(AI)(Sheikh et al., 2023; Xu et al., 2021)通过提供强大的工具来增强传统方法并引入创新途径(Lagaros and Plevris, 2022; Solorzano and Plevris, 2022b),正在彻底改变结构工程领域。人工智能已在广泛的领域中找到应用(Mahajan et al., 2024),包括增强有限元方法以实现更快、更准确的模拟(Bolandi et al., 2022; Korzeniowski and Weinberg, 2021; Meethal et al., 2023; Uriarte et al., 2022)、代理模型(Liang et al., 2018; Solorzano and Plevris, 2022a; Solorzano and Plevris, 2023; Song and Fu, 2023)、利用图像处理(Dong and Catbas, 2020; Ehtisham et al., 2024; Ferraris et al., 2023; Kim et al., 2024)和传感器数据分析(Kurian and Liyanapathirana, 2020)进行结构健康监测(SHM)(Mondal and Chen, 2022; Plevris and Papazafeiropoulos, 2024),以及结构优化(Chamatidis et al., 2023; Solorzano and Plevris, 2020)以实现高效、经济且可持续的设计(Lagaros et al., 2008; Plevris et al., 2024)。此外,人工智能正被用于预测性维护(Ghaffari et al., 2024; Scaife, 2024; Ucar et al., 2024),使工程师能够预测并解决潜在故障,以及荷载预测(Zhang et al., 2021),其中人工智能模型能够更精确地预测复杂的荷载情景,如风(Song et al., 2024)、地震(Hu et al., 2024)和交通荷载(Hussain et al., 2023; Xu, 2024)。其他新兴应用包括使用生成算法进行自动化设计生成(Liao et al., 2024; Onatayo et al., 2024; Oscar et al., 2023; Ploennigs and Berger, 2024)、通过概率人工智能模型进行风险评估(Wang et al., 2022)和故障预测(Jia and Wu, 2022)、地震风险缓解(Plevris, 2024)以及材料表征(Gamil, 2023; Li et al., 2022),其中机器学习(ML)有助于预测各种条件下的材料特性和行为。这些进步使工程师能够以更高的精度、效率和可靠性解决复杂问题,标志着结构分析、设计和维护方式在整个生命周期中的变革性转变。
为了全面了解结构工程中基于人工智能的方法,我们使用 Scopus 数据库进行了文献综述。在上一段中介绍了人工智能在结构工程特定领域中的选定个别应用示例后,我们的搜索策略转向识别那些对人工智能在该领域作用提供广阔视角的综述文章。采用这种方法是为了减少专注于孤立人工智能应用的研究中经常遇到的碎片化问题,并提供更全面的学科概览。Scopus 是主要使用的数据库,因为它广泛覆盖了工程文献。搜索词包括“artificial intelligence”、“structural engineering”、“machine learning”和“soft computing”。我们优先选择过去十年中在知名期刊上发表的同行评审综述文章。这一时间范围确保了包含当代发展,同时保持相关性。
在通过这些综述文章建立基础理解之后,我们的重点转向了土木和结构工程以及相关领域中人工智能应用所涉及的伦理考量。这包括探索人工智能驱动的工程应用中关于治理、透明度、问责制和公平性的讨论。我们的目标是识别现有的伦理框架和指南,这些框架和指南可以与人工智能技术在结构工程实践中负责任的集成相关联。这种结构化的方法使我们能够综合现有知识并识别差距,从而为我们在结构工程中实施伦理人工智能的方法提供信息。
1.1 人工智能在结构工程中应用的综述文章
Salehi 和 Burgueño (2018) 综述了新兴人工智能技术——机器学习、模式识别和深度学习——在结构工程中的应用。这些方法改进了结构健康监测、损伤检测、混凝土建模和地震工程。作者强调了人工智能与物联网(IoT)集成以实现创新结构健康监测系统和智慧城市的潜力。挑战包括数据质量、计算效率和方法选择,并提出了解决这些问题的建议,以增强人工智能的影响。Thai (2022) 综述了机器学习在结构工程中日益增长的作用,强调了其在解决非线性系统分析和优化极端条件下的性能方面的潜力。该研究概述了核心机器学习技术、库、数据集和应用,例如结构分析、健康监测、防火和材料设计。该综述可作为将机器学习集成到结构工程中的基础参考。
Mostafa 等人 (2022) 的综述文章侧重于结构风工程,探讨了机器学习技术的集成,强调了其在风荷载预测、响应分析和结构优化方面的变革潜力。该研究将机器学习应用分为数据驱动建模、气动外形优化和结构健康监测,强调其处理风工程中固有的复杂非线性相互作用的能力。文章指出了数据可用性、模型可解释性和计算成本等挑战。建议包括推进混合模型、扩展数据集以及利用人工智能提高风敏感结构系统的弹性和效率。
Tapeh 和 Naser (2023) 对人工智能、机器学习和深度学习在结构工程中的应用进行了全面的科学计量学综述。该研究有三个目标:介绍与结构工程相关的人工智能技术,通过分析 4000 多篇出版物来绘制现有知识图谱,以及综述其在地震、风、火灾工程和结构健康监测等子领域的应用。它强调了人工智能在设计、监测和优化方面数据驱动解决方案的潜力,同时解决了可解释性、数据可用性和应用障碍等挑战。Málaga-Chuquitaype (2022) 的文章对机器学习在结构设计中的应用进行了批判性综述,探讨了其彻底改变传统方法的潜力。它强调了机器学习在概念设计、优化和性能预测中的集成,侧重于其处理大型数据集和发现隐藏模式的能力。作者强调了数据质量、模型可解释性以及与现有工作流程集成等挑战,同时提出了将机器学习与高级模拟和人机协作框架相结合的未来方向,以提高设计效率和创新。
Harle (2024) 综述了人工智能在更广泛的土木工程领域的进展,强调了其在结构设计、施工管理、岩土工程、交通和基础设施维护等领域的变革潜力。机器学习和遗传算法等人工智能技术优化了流程,增强了材料行为预测,并实现了高效的资源管理。应用包括土壤特性估算、智能交通系统和使用图像分析进行缺陷检测。尽管取得了进展,但数据限制、模型可靠性、伦理问题和跨学科合作等挑战依然存在。该研究强调了人工智能提高基础设施效率、安全性和可持续性的能力,同时提出了未来研究方向。Chitkeshwar (2024) 的综述文章探讨了机器学习、深度学习和人工智能在结构工程中的变革性影响,强调了它们在结构健康监测、优化和预测性维护中的作用。它强调了机器学习与物联网的集成,以实现实时监测,提高耐久性和性能。该研究强调了设计中基于机器学习的多目标优化,平衡了成本和结构完整性,同时倡导算法改进、增强数据可用性和更广泛的应用。文章讨论了彻底改变结构实践的挑战和机遇,以激发进一步的研究和应用。
Etim 等人 (2024) 最近的综述文章全面调查了机器学习在结构工程中的应用,强调了其在建模、分析和设计中的变革潜力。文章探讨了用于结构健康监测、损伤检测和材料特性预测等任务的关键机器学习技术。该研究强调了机器学习解决复杂结构系统固有挑战的能力,与传统方法相比,提供了更快、更准确的解决方案。作者指出了当前的局限性,如数据稀缺和模型可解释性,并提出了增强机器学习应用的策略,包括更好的数据收集以及与基于物理的模型集成。
1.2 结构工程中人工智能应用相关的伦理考量
随着人工智能应用的日益增长,它带来了双重潜力:巨大的益处与伦理风险并存(Trotta et al., 2023)。一方面,人工智能有望提高效率,减少人为错误,并发现新的设计可能性(Stahl, 2021)。另一方面,其在结构安全和韧性等关键领域的应用引发了紧迫的伦理问题(Dhirani et al., 2023)。诸如算法偏见、人工智能决策缺乏透明度、过度依赖自动化系统以及技术滥用的可能性等问题必须仔细解决。这些问题在结构工程中尤为重要,因为其风险很高,决策直接影响公共安全和基础设施可靠性。
尽管人工智能伦理被广泛认为是至关重要的主题,并已在各个学科中得到广泛研究(Safdar et al., 2020),但在解决人工智能方法在结构工程以及更广泛的土木工程和建筑领域中应用所特有的伦理考量方面,仍存在显著的研究空白。Liang 等人 (2024) 综述了建筑、工程和施工(AEC)行业中人工智能和机器人技术相关的伦理考量,重点关注失业、数据隐私、安全和责任等问题。通过对近期文献的系统分析,他们识别了九个伦理挑战和十三个与这些问题相关的研究主题。作者强调了提高利益相关者意识的必要性,并提出了七个未来研究方向以弥补差距,旨在平衡人工智能和机器人技术在 AEC 实践中集成的效率与伦理责任。Wang (2024) 使用行动者网络理论研究了人工智能在智慧城市发展中的伦理影响。该研究分析了人工智能在智能交通、水资源管理、医疗保健、电网和城市评估标准中的应用,重点关注政府、技术开发者和居民之间的互动。主要挑战包括数字伦理、机器伦理和关系异化。文章倡导透明、安全和负责任的人工智能系统,承认非人类行动者,并建立法律和伦理指南,以确保可持续和包容的智慧城市发展。
Emaminejad 等人 (2022) 分析了 490 篇同行评审文章,探讨了信任在 AEC 行业人工智能应用中的作用。他们的研究识别了建立信任至关重要的关键社会技术因素,如系统可靠性、可解释性和用户接受度,同时将这些要素置于 AEC 项目和流程的独特特征中。作者强调了 AEC 领域在解决信任特定需求方面存在的显著空白,并强调了人工智能解决方案与行业利益相关者的技术和心理期望保持一致的必要性。在随后的系统综述中(Emaminejad and Akhavian, 2022),同一研究人员通过分析584 篇出版物,检查了 AEC 行业中人工智能和机器人技术应用的信任问题。该综述识别了关键的信任维度——可解释性、可靠性、鲁棒性、性能和安全性——以及它们与当前 AEC 应用的相关性。该研究强调了在解决这些信任因素方面缺乏系统方法,并提出了旨在增强可信度的未来研究方向。作者强调,培养信任对于用户接受和人工智能及机器人技术成功集成到 AEC 工作流程中至关重要。
本研究采用跨学科方法,探讨结构工程中人工智能应用相关的伦理挑战,并提出有效解决这些问题的策略。首先,进行了文献综述,以检查现有的人工智能方法及其在结构工程中的应用,以及先前研究中强调的伦理考量。本次综述识别了关键的伦理问题,如偏见、透明度、问责制和公平性,并评估了它们对工程工作流程的影响。尽管文献提供了有价值的见解,但事实证明,仅凭理论讨论无法完全捕捉这些伦理挑战的实际复杂性。
为了弥补这一差距,本研究开发了八个假设性案例研究,旨在阐明当前和未来人工智能应用中出现的真实世界伦理困境。这些案例研究涵盖了一系列关键情景,包括地震风险预测模型中的偏见、人工智能驱动的结构健康监测中的问责制,以及人工智能生成建议与工程判断之间的冲突。每个案例研究都旨在反映现实挑战,强调结构工程中伦理失误的高风险性质及其对安全、决策和公众信任的影响。
文献综述和案例研究分析的见解通过迭代方法进行综合,以开发一个结构化的伦理人工智能实施框架。文献综述提供了结构工程中人工智能应用和先前研究中记录的伦理问题的概览,而案例研究则提供了可能出现伦理困境的实际情景。这种双重视角使我们能够识别结构工程中人工智能伦理的重复挑战和模式。为了确保所提出的框架是全面的,我们借鉴了相关领域现有的人工智能伦理框架,并根据结构工程的特定要求对其进行了调整。此外,我们还考虑了工程伦理文献和人工智能治理框架中的讨论,以确保与现有伦理原则保持一致。由此产生的框架分为三个领域:(i) 技术基础;(ii) 运营和治理框架;以及 (iii) 专业和社会责任,每个领域都包含解决特定伦理问题(如偏见缓解、透明度和人机协作监督)的关键支柱。该框架并不声称提供明确的解决方案,但它可作为指导结构工程中伦理人工智能应用结构化指南。本研究还旨在实现以下具体目标:
• 识别伦理挑战:检查人工智能驱动的结构工程工作流程中出现的伦理问题,如偏见、透明度、问责制和可靠性。
• 制定实用策略:为工程师、研究人员和政策制定者制定可操作的方法,以有效应对这些伦理挑战,确保负责任和有效的人工智能部署。
• 促进伦理实践:鼓励整合伦理标准,以建立信任、确保安全,并促进人工智能无缝融入结构工程实践。
本研究的方法论结构如图 1所示。本论文并非旨在为结构工程中人工智能应用相关的复杂且不断变化的挑战提供明确答案,而是旨在就人工智能在该领域应用未来发展所面临的风险、不确定性和治理问题发起更广泛的讨论。通过将技术考量与伦理远见相结合,本研究强调了负责任人工智能实施跨学科方法的必要性。所提出的措施并非作为绝对解决方案,而是作为指导原则,帮助工程师、研究人员和政策制定者应对人工智能应用的伦理格局。随着人工智能技术的不断发展,新的挑战和不可预见的风险将不断涌现,需要所有利益相关者持续反思、适应和积极参与。
据我们所知,本研究是文献中首次直接探讨结构工程中人工智能伦理问题的尝试。尽管在一般人工智能伦理背景下已有先前工作,并且关于人工智能在结构工程中应用的研究也很多,但此前没有研究专门探讨人工智能伦理与结构工程的交叉点。鉴于这是一个新兴且很大程度上未被探索的主题,我们旨在通过识别关键伦理挑战并提出负责任人工智能在该领域集成的新方向,为未来的讨论和研究奠定基础。
论文结构如下:第 1 节介绍了文献综述,概述了人工智能在结构工程中的应用并识别了现有伦理考量中的空白。第2 节详细介绍了论文的方法论、目标和结构,解释了研究方法、案例研究背后的基本原理以及伦理人工智能框架的开发方式。第 3 节讨论了人工智能应用中的伦理挑战,审视了偏见、透明度、问责制和公平性等关键问题。第4 节介绍了伦理困境的案例研究,通过假设但合理的场景说明了这些伦理挑战的现实影响。第 5 节介绍了所提出的框架及其关键支柱,概述了确保结构工程中负责任人工智能部署的结构化方法。第 6 节探讨了未来方向,侧重于跨学科研究机会、政策制定以及与该领域相关的人工智能伦理进展。最后,第 7 节提供了结论,总结了本研究的贡献,并强调了持续参与结构工程中伦理人工智能治理的重要性。
人工智能融入结构工程将为创新开辟新途径,增强分析、设计和监测能力(Salehi and Burgueño, 2018)。然而,这些进步也带来了必须解决的重大伦理挑战,以确保人工智能技术的负责任和公平使用(Sadek et al., 2024)。人工智能中的伦理决策不仅仅是满足一套要求,而是要驾驭复杂的、相互竞争的原则,这些原则通常涉及仔细的平衡和权衡。在结构工程中,决策直接影响公共安全、公平和可持续性,这些挑战变得尤为关键。
人工智能系统本身存在局限性和偏见,如果不加以解决,可能导致不公平或不安全的后果。此外,人工智能在结构工程中应用的伦理影响通常需要协调相互冲突的价值观,如安全与成本、效率与公平、创新与可靠性。这些冲突并非总能同时满足,决策者必须在手头的工程项目背景下评估权衡。Beauchamp 和 Childress 的应用伦理原则框架(Page 2012)——包括仁慈、不伤害、公正和尊重自主的价值观——为解决此类困境提供了有价值的指导。
尽管此处概述的伦理挑战——如偏见、透明度、问责制和公平性——在人工智能应用中普遍存在,但第 4 节将提供结构工程背景下的具体示例和案例研究。这些虚构场景突出了该领域伦理失误的独特复杂性和潜在后果,其中决策不仅影响技术成果,还影响社会福祉。
以下小节将深入探讨这些伦理挑战,审视过度依赖人工智能、数据隐私和实验性技术的使用等问题。此分析强调了建立框架和策略的重要性,以确保人工智能的负责任、公平和安全应用,在结构工程不断发展的格局中优先考虑安全、公平和透明度。
3.1 偏见与公平
人工智能模型严重依赖于其训练数据的质量和代表性。在结构工程中,有偏见的数据集可能导致不准确的预测,并最终导致不安全或不公平的结果(Ntoutsi et al., 2020)。例如,一个在特定地理区域或结构类型数据上训练的机器学习模型可能无法泛化到其他情境,可能低估了代表性不足情景中的脆弱性。这可能导致不安全的设计、资源分配不公或优先考虑不符合更广泛社会需求的项目。有些人可能认为迁移学习(Xing et al., 2024)通常用于通过预训练知识增强人工智能模型,可以提供解决方案。然而,它也可能继承相同的问题。如果原始预训练模型是基于有偏见或不具代表性的数据构建的,这些偏见可能会转移到新任务中。确保公平性需要彻底的数据集审计、包含多样化的数据源以及在模型训练和部署过程中检测和缓解偏见的机制(Varsha, 2023)。应该指出的是,人工智能模型中的偏见将导致技术不准确性,并加剧系统性不公平,如第 3.9 节所讨论。
3.2 透明度与可解释性
可解释性是指人工智能系统能够对其决策方式提供清晰、可理解的见解(Hassija et al., 2024)。这一概念在结构工程中尤为关键,因为人工智能模型经常影响涉及公共安全的关键决策。许多人工智能系统,特别是深度学习算法,以“黑箱”形式运行,对其内部过程和决策路径的透明度有限(Dobson, 2023)。
在结构设计和安全评估中,这种缺乏可解释性带来了重大挑战(Ali et al., 2023; Hassija et al., 2024)。工程师和利益相关者必须能够理解和评估人工智能系统如何得出结论,特别是在涉及生命安全的高风险情景中(Balasubramaniam et al., 2023)。例如,如果人工智能模型预测结构故障风险降低,但未提供清晰的理由,可能导致信任错位或怀疑。在结构工程中,影响承重结构设计或安全评估的人工智能模型必须提供清晰的理由,以确保工程师能够验证和信任其输出,尤其是在这些模型为生命安全决策提供信息时。
开发可解释的人工智能模型对于培养信任、支持验证过程以及允许工程师根据人工智能生成的输出证明决策合理性至关重要。这些模型增强了透明度,使复杂算法更易于解释,并将人工智能驱动的见解与负责任的工程实践相结合(Baum et al., 2022)。
3.3 可靠性与准确性
任何人工智能模型的可靠性和准确性都是其有效部署的基础,因为错误可能损害信任并导致严重后果(Scorzato, 2024)。这在结构工程中尤为关键,因为不准确可能导致重大故障或灾难性后果。人工智能驱动的系统可能低估结构脆弱性、忽视损伤或在优化过程中产生过于乐观的预测。这些错误通常源于过拟合、训练数据不足或不可预见的运行条件等问题。
在结构工程中,人工智能驱动的模型优化结构设计或预测维护需求必须高度准确,因为错误,例如忽视桥梁中的关键损伤或低估摩天大楼的承载极限,可能在高风险情景中导致灾难性故障、经济损失甚至生命损失。为了减轻这些风险,结构工程中的人工智能模型必须经过严格的验证和鲁棒性测试(Myllyaho et al., 2021)。此外,定期再训练对于确保模型保持准确并适应不断变化的条件和环境至关重要,从而保障公共安全和工程完整性。尽管可靠性对于已建立的人工智能系统至关重要,但实验性技术带来了额外的伦理问题,如第 3.8 节所讨论。
3.4 问责制
问责制是指对行动、决策或结果承担责任的义务。在结构工程中人工智能应用的情境下,问责制确保利益相关者对其开发、实施或使用的系统负责。当人工智能驱动的设计或建议导致错误或故障时,这一原则变得尤为关键(Novelli et al., 2024)。
在这种情况下确定问责制可能非常复杂(Buiten et al., 2023)。在结构工程中,当人工智能系统提供的建议导致结构故障,例如低估桥梁上的关键荷载(例如风力或地震力)时,就会出现这一挑战。关键在于确定责任是落在使用人工智能系统的工程师身上、设计模型的开发人员身上,还是落在未能正确验证其预测的组织身上。
明确的问责框架对于确保结构工程中人工智能应用的透明度,并使利益相关者能够对危及安全的错误负责至关重要。这些框架应明确定义人工智能生命周期中从开发到部署和应用的角色和职责。这将增强对人工智能系统的信任,并促进其伦理和负责任的使用。
3.5 数据隐私与安全
结构工程中的人工智能驱动系统越来越依赖于大量数据收集,特别是用于实时结构健康监测和预测性维护(Keshmiry et al., 2024)。这些系统生成和处理大量与基础设施状况相关的数据,包括应力水平、材料退化和环境影响。这些数据虽然对于提高安全性和性能至关重要,但也可能包含有关关键结构(如桥梁、水坝和隧道)脆弱性的高度敏感信息。如果遭到泄露,这些信息可能构成重大的安全风险,包括恶意利用结构弱点的可能性。
确保这些数据的保护至关重要,特别是在交通、能源和公共安全等高风险领域,数据泄露可能导致严重后果。未经授权访问基础设施数据可能助长网络攻击、破坏或滥用关键工程见解。为减轻这些风险,工程师和组织必须实施强大的网络安全措施,包括加密、多因素身份验证以及安全的云端或本地数据存储解决方案。
除了技术保护之外,遵守数据保护 法规也至关重要。欧盟的《通用数据保护条例》(GDPR)(Voigt and von dem Bussche, 2024)和其他区域标准对数据处理、存储和共享提出了严格要求。组织必须建立清晰的数据治理政策,确保数据使用的透明度,同时维护利益相关者的信任。结构工程中伦理人工智能的部署不仅需要先进的分析能力,还需要对数据隐私、网络安全和法规遵从性的坚定承诺,确保人工智能驱动的见解在增强安全性的同时不引入新的安全漏洞。
3.6 过度依赖人工智能系统
过度依赖人工智能系统会带来重大的伦理问题,尤其是在结构工程等高风险领域(Klingbeil et al., 2024)。工程师和决策者可能会对人工智能生成的建议过度信任,忽视模型固有的局限性,或未能批判性地评估其输出。在结构工程中,过度依赖人工智能可能导致忽视场地特定条件,如土壤类型、当地气候或极端荷载下的意外结构行为,这些只能通过人类专业知识才能充分评估。这种过度依赖可能导致缺乏足够人类判断的决策,从而可能导致不安全的设计或未能考虑对结构完整性和公共安全至关重要的关键因素。
解决过度依赖问题涉及区分充分的人类判断和数据集审计,如第 3.1 节所述。数据集审计是一个主动步骤,侧重于通过识别和缓解训练数据中的偏见来构建可靠的人工智能模型,确保在部署人工智能模型之前数据集的质量和代表性。相比之下,充分的人类判断在应用阶段充当被动保障,确保人工智能输出得到批判性审查、情境化,并辅以领域专业知识,以避免盲目信任自动化建议。
人工智能驱动的见解与工程判断之间建立良好平衡的关系对于确保建筑安全和基础设施韧性等领域的最终决策有充分依据至关重要。保持这种平衡需要促进人工智能系统与人类决策者之间的协作关系,工程师将人工智能见解作为起点,但运用其专业知识来验证和完善最终决策。这种方法最大限度地降低了风险,同时确保人工智能技术对安全有效的结构工程实践做出有意义的贡献。
3.7 目标错位与优化权衡
人工智能模型通常旨在优化特定目标,例如最小化成本、最大化效率或增强可持续性。然而,这些目标有时可能与更广泛的社会目标相冲突,例如促进公平、确保韧性或维持长期安全(Dung, 2023; Hristova et al., 2024)。在结构工程中,优化模型应优先考虑长期安全性和可持续性,而非短期收益。例如,用于结构优化的人工智能模型不应仅仅关注最小化成本或最大化效率,特别是当这些目标可能损害结构的完整性或韧性时。例如,在高层建筑中减少材料使用以最小化成本,可能会损害其抗震韧性,在地震发生时构成安全风险。
人工智能系统目标与工程核心职责之间的错位构成了重大的伦理挑战。在基础设施项目中,安全、公平和可持续性至关重要,人工智能驱动的优化绝不能以牺牲这些为代价来优先考虑成本效率。然而,确保人工智能与这些价值观保持一致是高度复杂的,因为伦理原则无法轻易量化或转化为数学目标函数。虽然人类本能地平衡安全和长期影响,但人工智能系统依赖于明确的优化标准,这使得将公平、韧性或社会福祉等概念编码为机器可处理的方式变得困难。这一挑战强调了多目标优化、伦理约束和人工监督的必要性,以确保人工智能驱动的决策维护公共福祉。即使有保障措施,弥合伦理推理与人工智能逻辑之间的差距仍然是一个持续的挑战。
3.8 实验性人工智能技术
在结构工程中部署实验性或未经测试的人工智能技术带来了关键的伦理挑战。与已建立的系统不同,这些新兴技术通常缺乏确保安全性和可靠性所需的严格验证。未经充分测试,它们可能产生不准确的预测或出现系统故障,可能危及公共安全并损害信任。例如,结构工程中的新兴人工智能技术,如预测性维护系统或生成式设计模型,必须在部署到高风险场景之前经过严格验证。关键基础设施中人工智能预测失误的后果可能包括建筑物倒塌或桥梁的灾难性损坏。
高风险项目将创新置于彻底测试之上,可能导致设计缺陷或不可预见的危险,特别是当未充分考虑独特的场地特定条件时。为解决这些问题,组织应采取预防性方法,包括通过试点测试分阶段实施、进行稳健的风险评估以及迭代验证,以在全面部署前识别和缓解潜在问题。人工智能开发人员和结构工程师之间的协作对于确保实验性技术既可靠又安全至关重要,从而使创新解决方案与结构工程中预期的安全和可靠性标准保持一致。对于已建立的人工智能系统,通过严格验证和定期再训练确保可靠性,如第 3.3 节所述,同样重要。
3.9 人工智能部署中的公平与可及性
人工智能的部署通常依赖于财务和技术资源,这可能导致富裕地区获得更多利益,而服务不足地区则落后。这引发了关于人工智能优势公平分配的伦理问题,特别是在结构工程中,人工智能技术的不平等获取可能加深不同地区基础设施发展和安全方面的差距。例如,结构工程中人工智能的部署应解决服务不足社区的需求,确保农村或经济欠发达地区从人工智能在基础设施维护和灾害韧性方面提供的安全改进中受益。
部署中的公平性还需要解决数据和算法中的技术偏见,如第 3.1 节所强调。有偏见的模型可能使边缘化社区的劣势持续存在,加剧现有不平等。确保人工智能系统在其应用中具有可及性和公平性——例如提供对人工智能驱动的结构监测系统的平等访问——对于防止资源充足和资源不足社区之间差距扩大至关重要。实现这一点需要进行彻底的数据集审计、采用偏见缓解技术和纳入多样化的数据源。通过解决系统性和技术障碍,人工智能技术可以公平地促进所有地区的安全和发展。
3.10 数据所有权与同意
在结构工程中,当通过结构健康监测系统收集的基础设施数据由私人实体拥有时,可能会出现数据所有权问题。关于数据所有权和同意的伦理问题(Beauchamp, 2011)在监测系统应用于私人拥有的结构时尤为相关。必须建立关于同意和数据使用的明确指南,以确保敏感信息,如私人建筑物或公共基础设施的弱点,得到伦理使用并符合法律标准(Andreotta et al., 2022)。
解决这些问题尤为重要,当人工智能应用于私营部门基础设施项目时,数据访问和使用可能影响利益相关者的隐私和安全。必须确保利益相关者了解数据收集过程、数据将如何使用以及他们同意或选择退出的权利,从而在维护人工智能应用透明度和问责制的同时保障隐私。
人工智能融入结构工程工作流程带来了复杂的伦理挑战,需要仔细审查。为阐明这些挑战及其潜在的现实影响,本节提出了八个假设性案例研究,每个案例都涉及人工智能在该领域应用中的一个关键伦理困境。
尽管是虚构的,但这些案例研究旨在既合理又基于新兴趋势。它们是根据几个指导标准开发的:(i) 与文献综述中识别出的特定伦理问题(如偏见、透明度、问责制和公平性)的相关性;(ii)基于当前和未来结构和土木工程中人工智能能力的合理性;(iii) 跨应用领域的多样性——包括设计、监测、改造和灾害响应——以捕捉一系列现实情境;以及 (iv) 受到类似先例的启发,包括在医疗保健、交通和智能基础设施等相关领域观察到的已记录的困境和风险模式。
这些案例研究并非基于实际事件,而是前瞻性预测,反映了随着人工智能更深入地融入结构工程实践可能出现的场景。这种推测但知情的方法允许探索由于人工智能在主流应用中仍有限而尚未在该领域完全显现的问题。通过关注可能合理出现的现实困境,案例研究为本研究中开发的伦理框架提供了一个概念性测试平台。
为了概述这些情景及其伦理意义,表 1总结了每个案例研究及其主要伦理问题和拟议框架的相应支柱。这种映射突出了虚构困境如何为本研究中开发的伦理框架提供信息和支持。
表 1. 假设案例研究、关键伦理挑战以及结构工程伦理人工智能框架相应支柱的概览。
在此摘要之后,将逐一介绍详细的案例研究。每个场景都探讨了如果未能解决特定伦理失误,如何可能损害结构工程人工智能应用中的安全、公平和公众信任。这些例子强调了随着人工智能技术的不断发展和渗透到工程实践中,预测和解决伦理问题的重要性。
4.1 案例研究 1:地震风险预测模型中的偏见
一个位于地震活跃地区的城市,实施了一套基于人工智能的地震风险预测系统,以优先对其老旧基础设施进行改造。该系统在一个主要包含城市中心高层建筑的历史地震数据和结构信息的训练数据集上进行训练。该数据集排除了城市郊区的大部分地区,那里有农村社区和关键基础设施,如桥梁和小型医院。
当人工智能系统部署后,它根据训练数据优先改造城市高层建筑,认为它们风险最高。然而,在一次中度地震中,连接两个农村地区的桥梁和郊区的一家小型医院遭受了严重损坏,而改造后的城市建筑基本未受影响。灾后审查显示,由于农村结构在训练数据中代表性不足,人工智能系统低估了它们的风险。这种疏忽使得脆弱人口缺乏足够的保护,并扰乱了关键的交通路线,加剧了灾害的影响。
本案例提出了几个与偏见、公平和正义相关的伦理问题。基于有偏见的数据集优先改造城市结构的决策,突显了公平与仁慈(促进福祉)之间相互竞争的原则。根据 Beauchamp 的原则(Page, 2012),正义将倡导更公平的资源分配,以反映服务不足地区脆弱人口的需求。优先改造城市地区而非拥有关键基础设施的农村社区,违反了正义原则,因为它未能解决农村居民不平等的脆弱性。
此外,从功利主义角度看,该系统优先考虑高价值城市地区可能被视为试图最大化利益。然而,训练数据缺乏包容性最终损害了最大多数人的最大利益,因为它未能考虑到农村社区可能面临的灾难性后果。不伤害原则(避免伤害)(Al-Bar and Chamsi-Pasha, 2015)将认为未能保护农村地区免受地震风险导致了不必要的伤害,加剧了灾害的影响。
此外,决策中缺乏监督——依赖人工智能的输出而不质疑训练数据的代表性——表明需要更大程度的人类判断。义务论伦理框架(D’Alessandro, 2024)将强调决策者有责任确保系统输出的公平性和准确性,确保在关键决策中不忽视脆弱人群。
本场景强调了确保人工智能训练数据公平性和包容性的重要性。Beauchamp 的正义原则要求人工智能系统设计应反映结构类型和地理背景的多样性,确保资源公平分配。为解决此类问题,城市必须纳入多样化的数据源,并不断更新人工智能模型以反映这些因素。对数据集进行偏见审计和实施可解释人工智能的机制也至关重要,以防止未来出现类似结果,确保人工智能在关键基础设施规划中负责任和伦理的使用。
4.2 案例研究 2:人工智能驱动的结构健康监测中的问责制
结构健康监测(SHM)中人工智能系统的部署带来了重大的问责挑战,特别是当故障是由系统性能或建议中的错误导致时。考虑一个人工智能系统,通过分析实时传感器数据和历史维护记录来监测桥梁的结构弱点。如果系统由于训练数据集不完整或有偏见而未能检测到支撑梁中的关键缺陷,则可能发生灾难性故障,导致严重损坏和潜在的生命损失。在这种情况下,确定问责制变得复杂:责任应该落在依赖人工智能的工程师身上、设计系统的开发人员身上、未能验证其准确性的组织身上,还是批准其使用的州机构身上?这个例子强调了在人工智能驱动的结构健康监测应用中,尤其是在涉及公共安全的情况下,需要严格的验证、持续的监测和明确的问责结构。
在另一个场景中,一个人工智能系统成功检测到桥梁的结构弱点,识别出关键承重构件的疲劳迹象。然而,它误解了问题的严重性,建议进行表面修复而不是解决潜在的结构缺陷。工程师们依赖人工智能的评估,实施了建议的措施,结果桥梁最终因未解决的弱点而倒塌。这引发了一个更深层次的问责困境:责任应该落在未能批判性评估人工智能建议的工程师身上、设计有缺陷决策算法的开发人员身上,还是在没有适当人工监督保障的情况下部署系统的组织身上?与传统工程工作流程不同,人工智能将非人类行动者引入决策过程,使传统的责任和专业责任概念复杂化。
这些场景强调了确保人工智能系统提供清晰、可解释的输出的重要性,从而使工程师能够做出明智的决策。为了解决这些问题,结构健康监测的人工智能系统必须经过广泛测试,纳入可解释输出的机制,并包含强大的人工监督协议。
此外,新兴的监管框架,例如欧盟的《人工智能法案》(AI Act)(Cancela-Outeda, 2024; Covelo de Abreu, 2024),提出了人工智能应用中问责制的结构化方法。《人工智能法案》根据风险水平对人工智能系统进行分类,并对高风险系统(包括用于桥梁等关键基础设施的系统)规定了具体要求。它强调了透明度、人工监督以及人工智能提供者、部署者和使用者之间职责的明确划分的必要性。在结构工程背景下,采用此类框架可以支持共享问责模型,其中工程师保留最终决策权,而开发人员和机构则负责系统准确性、验证和伦理设计。建立明确的问责框架对于确保人工智能在结构工程中的负责任和伦理使用至关重要。
4.3 案例研究 3:结构健康监测中的数据隐私泄露
一个城市实施了一套人工智能驱动的结构健康监测系统,以提高其基础设施的安全性和可靠性。该系统利用物联网传感器网络,持续收集和分析来自桥梁、隧道等关键结构的数据。这些数据包括结构应变、振动、温度变化和使用模式的实时测量值,并存储在一个中央数据库中,供授权人员进行分析和维护规划。
尽管系统功能复杂,但数据库并未得到充分保护。系统网络中的一个漏洞让恶意行为者未经授权访问了数据。攻击者提取了关于一座主要悬索桥结构脆弱性的敏感信息,包括应力点和标记为紧急维护的区域。这些信息随后被用于金融和犯罪目的。攻击者将数据出售给一个有组织团伙,该团伙在关键时刻利用这些漏洞,导致部分结构损坏和广泛恐慌。
虽然桥梁没有完全倒塌,但事件迫使当局关闭桥梁进行紧急检查和维修,导致巨大的经济损失、交通中断以及公众对城市基础设施管理的信任度下降。此场景突出了重大的风险和伦理问题:(i) 被盗数据提供了桥梁弱点的详细见解,这些弱点被利用来造成损坏。这强调了敏感基础设施数据落入坏人之手的危险;(ii) 滥用结构健康监测数据违反了保密的基本原则,引发了关于组织保护关键基础设施信息的伦理责任的问题;(iii) 桥梁关闭导致依赖交通网络的企业的巨大经济损失,并引起通勤者的不满,突出了数据泄露的连锁效应;(iv) 缺乏强大的安全措施和监督引发了伦理问题,即谁应该承担责任——系统开发人员因网络安全不足,城市因未能执行适当的数据保护协议,还是管理系统而未解决潜在漏洞的工程师。
本案例研究强调了通过强大的安全协议、访问控制机制和数据最小化来解决结构健康监测系统中数据隐私的重要性。通过优先考虑网络安全和伦理考量,结构健康监测系统可以继续提供有价值的见解,而不会使关键基础设施面临不应有的风险。
4.4 案例研究 4:组织压力与高层建筑设计中的工程判断
New City 的一家建筑公司实施了一套先进的人工智能系统,以优化一栋高层住宅楼的结构设计。人工智能建议减少建筑物核心结构中的钢筋用量以降低成本,声称减少后的钢筋在正常荷载条件下仍能满足基本安全裕度。这项基于人工智能在大量数据集上训练的决策,被视为一种可靠且高效的解决方案。然而,资深结构工程师 Alex 凭借丰富的经验,对该建议提出了担忧。
尽管设计符合安全规范,但 Alex 认为人工智能的建议可能会损害建筑物在罕见但关键事件(如地震活动或意外荷载情景)下的鲁棒性。他指出,人工智能可能忽视了场地特定因素,包括独特的土壤条件和建筑物沿海位置,这使其面临高风荷载。这些因素对于建筑物的长期稳定性和安全性至关重要。
与此同时,人工智能的建议提出了一个有效的伦理考量——成本降低。受时间和预算限制的项目管理团队坚持实施人工智能的设计。该系统的数据驱动分析有望显著节约成本并更有效地利用资源。他们认为,削减成本可以使项目在经济上更可行,从而使公司及其客户受益,并可能在经济困难的环境中使住房更实惠。然而,这突破了财务考量与安全之间伦理权衡的界限。
尽管 Alex 反对,团队仍向他施压,要求他批准该计划,理由是人工智能的效率及其符合安全规范。在组织压力下,Alex 不情愿地签署了设计,面临着其确保安全的职业责任与满足财务和时间压力的道德困境。该决定还引发了关于面对人工智能驱动解决方案时人类判断作用的担忧——决策应该仅仅基于人工智能的“数据驱动”结论,还是应该采取更以人为本的方法,考虑人工智能可能忽视的不确定性?
几个月后,一场罕见但强烈的风暴导致建筑物出现明显振动,引起居民恐慌,并需要昂贵的改造以加强其结构完整性。这一事件造成了经济损失,并导致公众对决策过程的强烈批评。该案例引发了伦理问题,即公司是否以牺牲居民和工人的安全和福祉为代价优先考虑成本节约,尤其是在容易发生极端天气事件的地区。
本场景突显了结构工程中伦理决策的复杂性,其中必须权衡多个有效原则。一方面,降低成本和提高经济可行性的愿望提出了一个伦理论点,特别是在使住房更实惠和解决财务限制方面。另一方面,公共安全和长期可持续性必须在设计决策中优先考虑,特别是在具有独特环境风险的地区。该困境还强调了人类专业知识在评估人工智能可能忽视的因素(如当地场地条件)方面的重要性,这些因素对于工程韧性至关重要。
本案例研究说明了结构工程中的伦理决策如何必须在相互冲突的指令之间进行权衡——成本效益与安全、短期财务收益与长期稳定性、人工智能驱动的解决方案与人类判断。它强调了组织需要营造一个环境,让工程师能够在没有不当压力的情况下倡导安全,并且人工智能作为支持而非替代人类专业知识的工具。该事件还强调了多方面伦理框架的重要性,这些框架在不同伦理原则冲突时指导决策。
4.5 案例研究 5:改造决策中的伦理问题
一个位于地震活跃地区的城市,采用了一套人工智能驱动的系统,以优先对其老旧基础设施进行改造。该人工智能模型旨在分析结构脆弱性、经济影响和维护历史,从而根据改造需求对结构进行排名。该城市实施此系统是为了有效分配有限的灾害准备资金。
当人工智能模型的建议被审查时,它优先改造市中心的高价值商业建筑,如办公楼、购物中心和豪华公寓楼。这些结构因其经济贡献和地震发生时高昂的维修成本而被认为是关键的。然而,低收入社区的老旧住宅建筑,其中许多居住着城市最脆弱的人口,在列表中排名要低得多。这些社区结构文件有限,并且通常在现代建筑规范实施之前建造,这使得它们特别容易受到地震破坏。
市官员听从人工智能的建议,将大部分改造预算分配给了商业区,而住宅区则获得了最少的升级资源。几个月后,一场中度地震袭击了 Rivertown。虽然改造后的商业建筑损坏轻微,但低收入地区的几座住宅结构倒塌,导致人员伤亡和脆弱家庭的大规模流离失所。公众哗然,社区领袖指责该市优先考虑经济利益而非人类生命。
本案例研究突出了以下伦理问题:(i) 人工智能系统的优先排序不成比例地惠及了富裕地区,加剧了现有的社会不平等,并忽视了边缘化社区的安全;(ii) 该模型被训练以重视经济指标,如财产价值和商业重要性,而非人口密度或脆弱性等以人为本的因素;(iii) 决策者过度依赖人工智能的建议,而没有批判性地评估算法的优先级是否与伦理考量和社区需求保持一致。
4.6 案例研究 6:桥梁设计中基于人工智能的荷载预测缺乏可解释性
在一个不断发展的城市中,计划建造一座新悬索桥,连接河流两岸的两个繁忙区域。为了优化设计并确保安全,项目团队采用了一套先进的人工智能系统来预测复杂的荷载情景,包括车辆交通、行人使用以及风和温度变化等环境荷载。该人工智能系统经过全球类似桥梁的历史数据训练,为最佳材料选择和荷载分布提供了建议。
在设计阶段,人工智能系统建议减小某些承重缆索的尺寸,声称这些调整可以在节省成本的同时保持安全裕度。当被询问时,系统输出表明减小的尺寸在预测荷载条件下表现良好。然而,该人工智能系统基于深度学习模型,无法解释它是如何得出这个结论的。工程师们得到一个表示安全合规的概率分数,但无法追溯影响该分数或其背后逻辑的因素。
资深结构工程师 Maria 拥有丰富的悬索桥设计经验,对此表示担忧。她认为,考虑到预期的交通增长和该城市沿海气候特有的不可预测的风况,缆索尺寸可能过小。然而,项目管理团队坚持采用人工智能的成本节约建议,理由是预算限制和对模型先进能力的信心。
建成两年后,桥梁在强风事件中开始出现异常振动。进一步分析显示,缆索尺寸不足以抑制这些影响,这是人工智能因其训练数据中缺乏类似的沿海条件而未能考虑的因素。尽管桥梁没有倒塌,但需要进行大规模改造,导致额外成本和公众对决策过程的批评。
本案例研究突出了以下伦理问题:(i) 人工智能系统无法为其建议提供透明的理由,导致工程师无法批判性评估模型的可靠性,从而损害了对其输出的信任;(ii) 项目管理团队过度依赖人工智能建议,缺乏足够的人工评估,优先考虑成本节约而非谨慎的工程判断;(iii) 缺乏清晰的可解释性使得难以确定误判的责任,将责任推诿于人工智能开发人员、工程师和决策者之间。
4.7 案例研究 7:人工智能在灾后损害评估中的伦理影响
在城市大都会区发生一次大地震后,市政府部署了一套人工智能驱动的系统,对建筑物和基础设施进行快速灾后损害评估。该系统利用机器学习算法分析无人机影像和卫星图像,将结构分为三个损害等级:轻微、中度和严重。人工智能系统优先考虑效率,在数小时内生成结果,而传统的人工评估则需要数天或数周。
在重建过程中,几座被人工智能系统归类为“轻微损坏”的建筑物在正常使用下意外倒塌,造成人员伤亡。随后的调查显示,由于缺乏训练数据,人工智能系统难以评估某些结构配置和材料,例如老旧的砖石建筑和混合施工方法。这个问题曾被开发人员标记,但在灾害响应的紧迫性中被忽视了。
本案例强调了在灾害响应情景中对人工智能系统进行严格测试和验证的必要性,以及清晰地传达不确定性和局限性,以确保其负责任的使用(Plevris, 2025a)。本案例研究突出的伦理问题是:(i) 优先考虑速度而非彻底性损害了评估的准确性,导致某些结构中未检测到严重损坏;(ii) 该系统在未经过充分的真实世界灾后条件测试的情况下部署,突显了在高风险情景中使用未经证实技术的风险;(iii) 缺乏可解释的输出使得工程师和官员无法验证人工智能的结论,从而损害了对系统的信任;(iv) 部署未经测试的系统的决定引发了关于谁应该对故障负责的伦理问题——是指出局限性的开发人员,还是忽视这些局限性的决策者。
4.8 案例研究 8:人工智能辅助材料选择中的伦理困境
为了促进可持续发展,一个城市引入了一套人工智能驱动的系统,以协助结构工程师为大型基础设施项目选择环保材料。该系统旨在平衡成本、环境影响和结构性能等因素。在规划一个新的公共交通枢纽时,人工智能系统推荐了一种新型复合材料,该材料与传统材料相比具有低碳足迹和更低的成本。
尽管该材料通过了初步强度测试并符合规范要求,但几位工程师对其在当地环境条件(包括高湿度和温度波动)下的长期耐久性表示担忧。然而,项目经理在满足可持续发展目标和预算的压力下,选择遵循人工智能的建议,而未进行扩展测试。枢纽建成五年后,发现关键承重构件出现结构退化,需要进行大规模维修,并引发了对所选材料长期可行性的质疑。
本案例强调了平衡创新与谨慎的重要性,确保人工智能驱动的可持续发展建议不会损害结构完整性或公共安全。本案例研究突出的伦理问题是:(i) 人工智能优先考虑可持续发展指标而非长期性能,可能损害结构的安全性和寿命;(ii)放弃扩展测试的决定突显了过度依赖人工智能而缺乏足够人类判断和验证的风险;(iii) 过早退化的责任尚不明确——是人工智能开发人员、批准建议的工程师,还是优先考虑成本和可持续发展指标的项目经理?(iv)使用未经证实材料引发了关于采用创新技术而未进行全面验证所涉风险的伦理问题。
所提出的人工智能在结构工程中伦理使用的框架旨在以有组织的方式解决结构工程中人工智能的伦理挑战。通过将其七个关键支柱分为三个主要领域——(A) 技术基础、(B) 运营和治理框架以及 (C) 专业和社会责任——该框架确保了伦理人工智能集成的整体方法。这种结构平衡了技术准确性、组织监督和社会责任,为工程师、组织和政策制定者提供了路线图。
图 2直观地总结了该框架,展示了这三个领域中的七个关键支柱。每个支柱都解决了伦理人工智能实施的关键组成部分,形成了一个相互关联的结构,指导人工智能负责任地融入结构工程。
图 2. 结构工程中人工智能伦理使用的框架:按技术、运营和社会领域分类的关键支柱。
“技术基础”领域侧重于确保人工智能系统可靠、透明和公平所需的核心技术策略。这些措施包括解决数据偏见、改进验证过程和增强可解释性,为可信赖的人工智能应用奠定基础。
“运营和治理框架”领域强调指导伦理人工智能部署所需的结构和程序机制。这包括建立行业标准和指南以确保一致性和问责制,以及集成人机协作方法以在决策过程中保持人工监督。
“专业和社会责任”领域突出了工程师维护伦理标准、促进公平和确保可及性的更广泛责任。这包括遵守伦理指南,并确保人工智能的益处超越资源丰富的地区,惠及服务不足的社区和小型组织。
尽管七个关键支柱中的每一个都为了概念清晰而单独呈现,但它们本质上是相互依存和相互强化的。例如,稳健测试和验证(支柱 2)通过实现模型性能的透明沟通来支持可解释性(支柱 3)。同样,无偏见数据(支柱 1)和公平与可及性(支柱 7)密切相关,因为解决技术偏见是实现部署中社会公平的先决条件。人机协作方法(支柱 5)充当技术基础和专业责任之间的桥梁,确保人类判断指导人工智能决策。因此,该框架不应被视为清单,而是一个相互关联的系统,其中每个支柱相互支持和放大,以确保整体伦理实施。
以下 5.1-5.7 小节详细探讨了每个支柱,概述了支持结构工程工作流程中伦理人工智能使用的具体策略、原则和实际应用。
5.1 关键支柱 1:确保无偏见数据
这一首要支柱植根于正义的伦理原则,该原则要求所有人群获得公平和公正的待遇。在人工智能背景下,确保无偏见数据通过避免对代表性不足社区造成系统性劣势来支持分配正义。它还与不伤害原则相符,因为有偏见的模型可能通过不平等待遇或在边缘化地区产生不安全结果而造成伤害。Jobin 等人 (2019) 强调,正义和不伤害原则是全球人工智能指南中最常被引用的伦理原则之一,这突显了它们在负责任人工智能发展中的核心地位。此外,Leavy 等人 (2020) 讨论了人工智能训练数据中的偏见如何可能延续社会不公,强调了需要支持这些伦理标准的数据实践。
任何人工智能系统的基础在于其训练数据的质量和代表性(Ntoutsi et al., 2020)。为了最大限度地减少偏见并促进结构工程应用中的公平性,必须实施几项策略。首先,系统的数据集审计至关重要(Adams et al., 2023; Li and Goel, 2024)。这些审计涉及对训练数据集的彻底审查,以识别和缓解可能扭曲人工智能输出的偏见。例如,数据集应包含多样化的结构类型、材料和地理区域,以确保人工智能模型适用于各种情境和场景。
另一种有效的策略是数据增强(Grover et al., 2024),它通过为代表性不足的案例生成合成数据来增强数据集多样性。这种方法对于解决诸如罕见地震事件或独特结构配置等场景中的空白特别有用。通过模拟这些条件,数据增强有助于人工智能系统在更广泛的使用案例中做出更准确和公平的预测。
最后,将公平指标纳入人工智能模型输出的评估至关重要。这些指标提供了公平性的定量度量,使工程师能够评估人工智能模型的预测是否不成比例地偏向或不利于某些群体或情景。通过积极监测和解决通过此类指标实现的公平性问题,可以改进人工智能系统,以确保结构工程应用中的公平结果。
总之,这些措施共同构成了确保无偏见数据的强大框架,使人工智能系统能够在多样化的结构工程环境中更可靠、更伦理地运行。
5.2 关键支柱 2:稳健测试与验证
人工智能中的稳健验证实践与伦理原则(如仁慈(Thomson, 2023)和不伤害(Al-Bar and Chamsi-Pasha, 2015))紧密结合,强调了促进安全和预防伤害的职业责任。从义务论的角度来看,工程师有伦理义务确保他们使用的工具——尤其是在结构工程等安全关键领域——符合严格的可靠性和性能标准。功利主义的考量也支持这一义务:最大限度地提高公共安全和最小化风险惠及最大多数人。正如 Floridi 和 Cowls (2019) 指出的,仁慈和不伤害仍然是伦理人工智能治理中最基本的原则。
在结构工程中,人工智能工具在被信任用于高风险决策之前,必须经过严格的测试和验证。这种验证超越了初始性能检查,需要针对每个应用量身定制的结构化、透明的方法。挑战包括定义清晰的性能阈值、解释黑箱模型以及使人工智能预测与工程规范和既定的安全实践保持一致(Numan, 2020)。普遍的验证标准仍然难以捉摸,但仍必须开发特定于上下文的基准,以确保人工智能工具不会损害结构完整性。
测试协议应多样化,以反映许多潜在的人工智能用例——例如地震风险评估、结构健康监测和故障预测。这些协议应包括:(i) 极端荷载条件下的压力测试;(ii) 数据不完整或噪声的模拟;(iii) 模型不确定性的量化;(iv) 与传统工程计算的性能基准测试。
稳健验证的一个关键组成部分是解决性能漂移——由于结构、环境或使用条件的变化,人工智能模型准确性随时间推移而下降。为减轻这种情况,验证必须贯穿整个人工智能生命周期。工程师应实施:(i) 定期测试新数据的持续验证程序;(ii) 基于更新基础设施条件的模型再训练协议;(iii) 在模型变得不可靠之前将其淘汰或逐步淘汰的政策。
这些实践将验证转变为一项动态和持续的责任,而不仅仅是一次性事件。生命周期感知验证通过保持性能来支持仁慈,并通过防止模型过时造成的损害来支持不伤害。它还反映了工程师监控和管理使用中工具的伦理义务,从而增强专业问责制和公众信任。
虽然支柱 5(人机协作方法)侧重于人类伦理监督和决策,但本支柱侧重于人工智能系统的技术完整性和生命周期治理。此处讨论的反馈循环服务于工程验证功能,允许根据不断变化的系统行为进行技术重新校准——这与人机协作情境中强调的人类道德监督循环不同。
最后,结构工程中的伦理人工智能治理必须将风险管理直接嵌入测试框架。这包括跟踪意外偏见、审计预测稳定性以及记录模型限制。尽管其中许多技术仍在发展中,但构建、测试和完善稳健验证协议的责任是明确的。本框架不声称提供规定性解决方案,但它呼吁全行业致力于推进这些实践,因为人工智能将更深入地融入结构工程工作流程。
5.3 关键支柱 3:开发可解释人工智能模型
这一支柱与义务论伦理中的自主和尊重个人(Łuków and Różyńska, 2014)紧密相连,强调用户和利益相关者有权了解决策是如何做出的。可解释性也支持问责制(Reichborn-Kjennerud, 2018),因为它使得能够追溯结果到负责任的代理人。促进透明度可以增强信任,这是伦理工程实践的基础(Visave, 2025)。
为了增进信任和提高可用性,结构工程中的人工智能模型必须提供对工程师和利益相关者都清晰易懂的输出。实现这一目标的一种有效方法是使用可解释人工智能技术(Czerwinska, 2022; Ding et al., 2022)。诸如 SHAP (SHapley Additive exPlanations)(Merrick and Taly, 2020)等工具可以量化各个特征的重要性,并说明特定输入如何影响模型的预测。通过提供详细解释,这些技术使工程师能够有效验证人工智能的输出,并对其建议建立信心。
另一种策略是在透明度至关重要的场景中采用更简单的模型架构(Felzmann et al., 2020)。决策树、基于规则的系统或线性回归等模型具有固有的可解释性,使工程师更容易理解预测背后的推理(Tursunalieva et al., 2024)。这些模型在安全关键型应用中 特别有用,在这些应用中,追溯决策路径的能力对于明智决策至关重要。
此外,交互式可视化工具的开发可以显著增强人工智能系统的可解释性(Wang et al., 2023)。这些工具允许用户以直观的方式可视化模型的决策过程,例如通过突出显示影响安全预测的关键结构元素。通过以用户友好的格式呈现复杂信息,这些可视化有助于弥合高级人工智能算法与实际工程应用之间的差距。
通过整合这些方法,人工智能模型可以变得更加透明,使工程师和利益相关者能够做出更明智和自信的决策,同时解决与问责制和信任相关的伦理问题。
5.4 关键支柱 4:建立标准和指南
建立标准反映了义务论伦理,通过规范工程师和机构的职责和责任。它还支持不伤害原则(Al-Bar and Chamsi-Pasha, 2015)和正义,确保人工智能应用符合整个行业的统一安全和伦理基准。这一支柱通过减少不确定性并预防广大民众的伤害,为功利主义成果(Kay, 2018)做出贡献。
为确保人工智能在结构工程中一致且伦理的使用,建立规范化的标准和指南至关重要。一个关键步骤是倡导由美国土木工程师学会(ASCE)或欧洲计算方法应用科学共同体(ECCOMAS)等专业组织制定行业标准。这些组织处于有利地位,可以创建标准化框架,定义将人工智能集成到结构工程工作流程中的最佳实践。此类标准有助于确保人工智能技术在整个行业中得到一致且伦理的应用,从而促进统一性和问责制。
除了行业标准,发布最佳实践指南也至关重要。这些指南应提供关于将人工智能负责任地集成到工程过程中的详细说明,涵盖关键要素,如模型验证协议、文档要求以及检测和缓解人工智能系统中偏见的方法。通过为工程师和组织提供实用资源,这些指南可以支持人工智能的负责任应用,同时解决潜在的伦理挑战。
此外,人工智能系统必须与现有监管框架保持一致,以保持合规性并维护安全标准。将人工智能应用与既定的工程规范和安全要求保持一致,可确保人工智能生成的建议符合与传统工程方法相同的严格质量和安全标准。这种监管一致性促进了工程师、监管机构和公众之间的信任,提供了人工智能技术负责任部署的保证。
现有的监管举措也突显了这种一致性的重要性。例如,美国国土安全部(DHS)发布了一项框架,旨在指导人工智能在关键基础设施中的安全部署(U.S. Department of Homeland Security, 2024)。该框架强调了管理广泛风险(包括滥用和事故)的必要性,同时强调了在将人工智能集成到基本服务之前进行严格测试和验证的重要性。同样,欧洲议会也讨论了人工智能技术的伦理影响,倡导制定全面的指南,以确保负责任的开发和实施(European Parliamentary Research Service, 2020)。这些指南强调了将人工智能应用与伦理标准保持一致的重要性,以减轻潜在风险,特别是那些与未经测试或实验性技术相关的风险。
总之,这些措施——行业标准、最佳实践指南以及遵守现有法规——共同构成了确保结构工程中人工智能一致性、可靠性和伦理完整性的综合方法。通过纳入既定框架并与不断发展的监管指南保持一致,结构工程领域可以自信且负责任地采用人工智能技术。
5.5 关键支柱 5:人机协作方法
人机协作(HITL)是指一种协作方法,其中人类监督和输入是人工智能系统运作不可或缺的一部分。人机协作方法强调尊重自主(Łuków and Różyńska, 2014)以及工程师做出明智和道德负责任决策的义务论责任(Smith et al., 2014)。这一支柱并非取代人类判断,而是支持协作决策,其中人工智能增强但不凌驾于专业知识之上。它还通过防范未经审查的自动化和意外后果来强化不伤害原则(Al-Bar and Chamsi-Pasha, 2015)。
在结构工程中,人机协作方法在安全关键型应用中尤为重要,在这些应用中,需要细致入微的人类判断来评估风险、确保结构完整性并解释复杂或不确定的模型输出(Mosqueira-Rey et al., 2023; Wu et al., 2022)。因此,必须将监督机制纳入工程工作流程,确保人工智能建议在实施前经过有意义的人工评估。
有效的人机协作实施需要正式的审查协议和培训计划,使工程师能够批判性地评估人工智能输出,理解模型局限性,并在必要时进行干预。这些技能有助于防止盲目信任自动化系统,并确保工程师保持对决策的主动控制。
重要的是,人机协作不限于初始部署。人工监督必须贯穿人工智能生命周期,以维护伦理和专业标准。虽然支柱 2 解决了人工智能模型的技术验证,但本支柱强调工程师在部署后保持参与的道德和专业义务。这包括定期重新评估人工智能建议,反思不断变化的基础设施环境,并随时准备在必要时推翻系统。人工监督必须保持动态,对新信息做出响应,并关注伦理风险。
通过将人机协作方法嵌入结构工程实践中,专业人员确保人工智能增强——而不是取代——人类责任。这保障了公共福祉,强化了信任,并在不断发展的技术面前维护了伦理完整性。
5.6 关键支柱 6:结构工程师伦理指南
伦理指南植根于美德伦理(Gustafson and Peterson, 2023)和职业义务论(Poff, 2023),强调工程师的品格、责任和道德推理。它们还通过鼓励持续教育和跨学科合作来改善成果,从而促进仁慈。伦理规范有助于确保创新不会超越专业管理风险和维护公众信任的能力。
将人工智能融入结构工程需要一个统一的伦理指南框架,以确保其负责任和有效的使用。这些指南强调透明度、持续教育和跨学科合作,共同维护公共安全、公平和问责制。透明度是建立信任和确保人工智能应用问责制的基础。工程师必须了解人工智能模型的能力和局限性,清晰披露人工智能输出的使用情况,并维护决策的详细文档,以便为利益相关者提供关键设计和安全选择的清晰理由。
为了补充透明度,持续教育使工程师具备应对不断发展的人工智能技术和伦理考量所需知识。专业发展计划和将人工智能伦理纳入工程教育,为当前和未来的专业人员应对可解释性、偏见缓解和可靠性测试等挑战做好准备。保持信息畅通可确保工程师保持能力并适应进步。
跨学科合作弥合了人工智能技术与实际工程应用之间的差距。工程师与人工智能开发人员、伦理学家和领域专家合作,可以使技术能力与现实世界需求保持一致,同时解决社会和伦理影响。这种协作方法确保人工智能解决方案在坚持伦理标准的同时促进创新,创建优先考虑公共安全、公平和问责制的系统。通过这些相互关联的策略,人工智能融入结构工程可以既创新又具有伦理合理性。结构工程界可以通过遵守这些原则,有效整合人工智能,确保其应用在增强创新和公众信任的同时,保障伦理标准。
5.7 关键支柱 7:公平与可及性
这一支柱与正义原则(Jobin et al., 2019)紧密相连,倡导无论地理或经济差异如何,都能公平获取人工智能的益处。它还通过旨在最大化人工智能对更广泛社会积极影响来支持功利主义(Kay, 2018)。确保可及性反映了对社会责任的承诺,并防止现有不平等的加深。
公平性和可及性是结构工程中人工智能伦理实施的关键考量。尽管人工智能技术有潜力彻底改变该领域,但其益处往往分布不均,在资源丰富的地区和资源匮乏的地区或组织之间造成差距。较小的市政当局或农村社区可能缺乏实施先进人工智能驱动的结构健康监测系统或灾害准备的财政资源或技术专长。这可能加剧现有不平等,使服务不足地区更容易受到结构故障或自然灾害的影响。确保人工智能应用对所有社区都可及,对于弥合这一差距和维护公平与社会责任原则至关重要。
为了促进公平,人工智能系统应在设计和部署时考虑到包容性(Zowghi and Bano, 2024)。这包括创建可供小型组织采用的经济高效的解决方案,并确保训练数据集反映城市、郊区和农村环境的多样化需求。政府、学术机构和私人组织之间的伙伴关系可以帮助资助和开发满足边缘化或资源不足社区需求的人工智能系统。此外,开源人工智能模型和工具可以在民主化先进技术方面发挥关键作用,实现更广泛的采用并降低小型利益相关者的财务障碍。
可及性还延伸到确保人工智能系统的输出和建议对所有用户都易于理解和可操作,无论其技术专长如何。为资源不足地区的工程师和决策者提供用户友好的界面、直观的可视化和培训计划,可以使他们能够有效利用人工智能系统。
结构工程界可以通过优先考虑公平性和可及性,确保人工智能的变革潜力造福整个社会,而不是加深现有不平等。这一支柱是负责任和伦理人工智能框架的重要组成部分,强化了工程实践中对公平和包容的承诺。
人工智能融入结构工程具有巨大的前景,为分析、监测、设计和优化提供了新能力。然而,要实现这一潜力,需要长期的远见和致力于解决随着人工智能日益普及而将不断出现的伦理、技术和监管挑战。尽管拟议的框架为负责任的人工智能集成提供了即时指导,但它在概念上是刻意的。结构工程才刚刚开始以有意义的方式采用人工智能,该领域目前缺乏足够的经验证据来支持僵化的清单或详细的实施协议。
过于简化或过早的标准化可能会掩盖将人工智能技术与公共安全、工程完整性和职业伦理相结合所固有的复杂性。在早期阶段,该框架的价值在于其能够提高意识、指导伦理反思,并作为持续发展的基础。随着经验知识的扩展和实际应用的增长,该框架可以为制定正式的伦理指南、教育课程、生命周期管理策略以及为结构工程量身定制的监管系统提供信息。
未来的进展将需要持续的跨学科合作、全球协调以及对技术创新的积极适应。以下各节概述了研究、教育、政策和包容性发展的关键方向,强调了此处提出的伦理基础如何演变以满足新兴需求。
6.1 拓展跨学科研究
结构工程中伦理人工智能的未来在于超越现有实践的跨学科合作。研究倡议应深化结构工程师、人工智能开发人员、伦理学家、社会科学家和政策制定者之间的伙伴关系,以探索技术、伦理和社会交叉领域的新挑战。诸如缓解新兴人工智能技术的意外后果、解决系统性不平等以及为多样化基础设施环境开发可扩展人工智能系统等主题需要跨学科的共同努力。
跨学科研究最紧迫的领域之一是人工智能驱动的结构工程系统的验证和安全保证。与依赖确定性计算和完善安全系数的传统工程模型不同,人工智能引入了概率不确定性,必须对其进行严格量化以确保实际应用中的可靠性。未来的努力应侧重于开发与现有工程安全框架相一致的系统性人工智能验证方法。这包括将人工智能驱动的不确定性量化集成到结构安全评估中,以确保人工智能生成的预测保持可解释性和可靠性。此外,人工智能模型应在极端条件下(例如地震事件、渐进性倒塌情景和材料随时间推移而退化)进行基于可靠性的压力测试。这些验证技术对于评估人工智能生成见解的鲁棒性并防止可能危及公共安全的故障至关重要。
随着人工智能的不断发展,对跨学科专业知识的需求变得越来越重要。工程师必须与人工智能研究人员和伦理学家合作,以确保人工智能模型符合结构安全标准,同时保持问责制和透明度。如果没有这种协作研究,人工智能辅助的结构决策可能缺乏安全关键型应用所需的清晰度、可靠性和鲁棒性。
建立国际公认的伦理标准也需要全球伙伴关系,这些伙伴关系能够适应区域差异,同时保持负责任人工智能部署的统一框架。政府机构、学术机构和私营部门利益相关者应优先资助跨学科研究倡议,以推进人工智能在结构工程中的作用,同时解决其伦理影响。技术和非技术领域之间的协调努力对于确保结构工程中的人工智能应用既创新又安全、透明和公平至关重要。
除了推进技术验证和协作研究外,制定长期监督框架以确保人工智能系统随着时间的推移保持可靠、伦理和安全也至关重要。随着人工智能工具的发展或面临新的部署环境,必须建立持续的部署后监测、定期重新验证以及过时模型的淘汰政策。如果没有这些治理机制,即使经过良好验证的人工智能系统也可能因数据分布变化或结构需求变化而变得不可靠。强大的生命周期监督基础设施对于将问责制制度化并保护人工智能应用整个生命周期中的公共福祉至关重要。
随着人工智能在全球范围内的应用不断扩大,伦理框架必须适应不同的区域监管环境和对工程责任的文化视角。关于透明度、自主性、责任和公众参与的规范在不同国家之间差异很大,影响着人工智能伦理的解释和执行方式。例如,欧盟的《人工智能法案》(Cancela-Outeda, 2024; Covelo de Abreu, 2024)强调人工监督和基于风险的监管,而其他地区可能优先考虑创新或效率而非正式治理。因此,国际合作不仅对于技术发展至关重要,而且对于使伦理标准与当地期望保持一致也至关重要。未来的跨学科研究必须探索如何将拟议的伦理原则和实施策略本地化,以反映不同全球背景下的法律体系、文化价值观和专业规范。除了研究之外,这种跨学科精神还必须为教育和专业培训提供信息,确保伦理素养随着技术进步而发展。
6.2 改造工程教育
培养未来工程师应对人工智能伦理挑战的能力,需要对教育方法进行变革性转变。结构工程课程必须将人工智能伦理作为核心组成部分,超越人工智能方法的技术层面(Plevris, 2025b)。这种整合应涵盖伦理理论,并提供实用工具和框架,以应对现实世界的困境。透明度、问责制和社会影响等主题应在结构工程场景中进行框架化,帮助学生理解这些原则如何应用于实践中的决策。
为了让学生为他们将面临的复杂伦理问题做好准备,课程应包括具体的伦理框架,例如 Beauchamp 和 Childress 的应用伦理四原则——自主、不伤害、仁慈和正义(Page 2012)——以在多个伦理原则(如安全与成本、公共福祉与效率、公平与可及性)发生冲突时指导决策。此外,应培训学生批判性地评估这些冲突,并在人工智能驱动的工程系统背景下做出伦理上合理的决策。
对于执业工程师而言,终身学习同样至关重要。专业发展计划应包括研讨会和培训课程,探讨人工智能融入工作流程的伦理维度。这些计划必须侧重于为工程师提供工具,以批判性地评估人工智能系统,识别潜在的伦理困境,并在其工作中应用负责任的实践。真实的案例研究、角色扮演练习和基于模拟的学习可以帮助工程师培养在实际场景中权衡相互竞争的伦理指令所需的技能。
将伦理嵌入基础教育和持续专业发展,可确保工程劳动力为应对快速发展的技术格局的复杂性做好准备。这种人工智能伦理教育方法将培养技术能力,以及解决结构工程中人工智能所带来挑战所需的伦理判断力。
6.3 适应新兴技术
量子计算(Hirvensalo, 2004)、自主系统和人工智能增强的数字孪生(DTs)(Al-Sartawi et al., 2024; Hosamo et al., 2022a)等新兴技术将改变结构工程,为分析、优化和实时监测提供新的可能性。然而,它们的采用也带来了复杂的伦理和技术挑战,需要积极的研究和监管框架。尽管这些技术有潜力提高效率和安全性,但它们也带来了与验证、问责制和人工智能驱动决策过程日益不透明相关的风险。
例如,量子计算可以通过以前所未有的速度解决计算密集型问题,从而彻底改变结构分析和优化。然而,其应用引发了对数据安全、模型可解释性和可靠性的担忧(Boretti, 2024)。与经典计算模型不同,基于量子的AI可能在概率原则上运行,这挑战了结构工程中现有的验证和确认协议。如果没有严格的验证框架,量子增强AI模型产生的结果可能难以解释,从而导致潜在的安全风险。
同样,建筑和基础设施维护中的自主系统(Davila Delgado et al., 2019)有望提高效率并减少人为错误,但它们带来了重大的问责挑战。人工智能驱动的自主代理(例如机器人检查员或自动化钢筋放置系统)所做的决策必须可追溯、可审计,并符合既定的工程安全标准。在完全自主操作中缺乏人工监督可能导致结构故障时的责任问题,从而引发人工智能辅助决策中的责任问题。确保人工智能驱动的自动化符合工程安全协议将需要开发人工智能问责框架,明确定义工程师、人工智能系统和监管机构在决策过程中的角色。
另一个关键的关注领域是人工智能增强数字孪生(DTs)在结构工程中日益增长的作用(Hosamo et al., 2022b)。数字孪生能够对基础设施项目进行实时监测、预测性维护和风险评估,从而提高决策的准确性和效率。然而,它们也带来了数据隐私、系统可靠性以及预测分析的伦理影响等挑战。人工智能驱动的数字孪生依赖于大规模数据收集和建模,引发了对数据所有权、网络安全以及算法偏见意外后果的担忧。必须采用结构化的风险评估方法来评估人工智能增强基础设施监测系统的伦理和安全影响,确保这些工具增强而非损害工程完整性。
为了负责任地利用这些技术,结构工程师必须将严格的人工智能验证协议集成到他们的工作流程中。与传统的工程验证方法不同,基于人工智能的验证需要压力测试、可解释性技术以及与 ASCE 7(美国土木工程师学会,2016)、欧洲规范 0(CEN,2002)等行业安全规范、其他结构设计规范和 ISO/IEC 23894:2023(人工智能风险管理指南)(国际标准化组织,2023a)进行基准测试。结构工程中使用的人工智能模型应进行性能基准测试、不确定性量化和对抗性压力测试,以确保其在安全关键型应用中的可靠性。此外,应优先进行试点测试和分阶段实施策略,以在广泛采用之前评估人工智能在高风险工程环境中部署的风险。
6.4 塑造未来政策和法规
随着人工智能技术日益成为结构工程不可或缺的一部分,政策和监管框架必须相应发展。未来的法规应解决诸如管理自动化决策的伦理影响、确保自主系统的问责制以及防范人工智能在关键基础设施中的滥用等挑战。
为了有效管理人工智能集成,采用既定标准至关重要。例如,ISO/IEC 23894:2023(国际标准化组织,2023a)提供了关于人工智能风险管理的全面指南,为组织提供了识别和缓解与人工智能部署相关的潜在风险的策略。同样,ISO/IEC 42001:2023(国际标准化组织,2023b)概述了人工智能管理系统的要求,协助组织实施、维护和持续改进其人工智能流程。
将这些标准纳入监管框架可确保结构工程中的人工智能应用符合公认的最佳实践,从而提高安全性和可靠性。此外,行业协会、政府机构和全球组织之间的合作对于创建适应性监管机制至关重要。这些协作努力应侧重于定义安全基准、明确问责结构以及建立与快速技术进步相符的可执行伦理标准。
通过整合标准化指南和促进协作努力,结构工程领域可以应对人工智能技术带来的复杂性,确保其应用既能促进创新,又能提高公共安全。
重要的是,人工智能的监管方法在各国之间差异很大,一刀切的模型可能不适用。因此,结构工程中人工智能的伦理框架应足够灵活,以适应各种法律传统、基础设施需求以及对风险和职业责任的文化态度。可能需要进行区域性调整,以确保全球原则在当地治理体系中得到有效和尊重的实施。
为确保持久的伦理合规性,监管策略还应包括人工智能系统的长期生命周期管理计划。这些计划必须概述持续性能评估、再训练程序以及淘汰过时或性能不佳模型的标准。将生命周期监督嵌入法规不仅确保了持续安全,还将人工智能的使用与不断变化的法律、技术和社会期望保持一致。未来的政策框架应鼓励机构将人工智能治理视为一个持续的过程,而不是一次性认证步骤。
6.5 促进包容性人工智能和公众参与
人工智能在结构工程中的益处必须惠及所有人,而不仅仅是资源丰富的地区或组织。未来的努力应侧重于创建经济实惠且可扩展的人工智能解决方案,以满足资源不足社区的需求。开源倡议和公私合作伙伴关系可以使先进的人工智能工具民主化,弥合城乡基础设施需求之间的差距。
让公众和不同的利益相关者参与讨论人工智能在基础设施项目中的作用同样至关重要。公共论坛、研讨会和互动外展活动可以促进透明度并建立信任,确保人工智能在广泛的社会共识下实施。
人工智能融入结构工程既带来了非凡的机遇,也带来了前所未有的伦理挑战。从增强的预测建模和结构监测到自动化决策,人工智能有望重塑该领域。然而,在一个公共安全、可靠性和公平性不可妥协的领域,此类技术的伦理部署必须是深思熟虑的、透明的,并以明确的原则为基础。
本研究提出了一个结构工程中负责任人工智能的综合框架,该框架建立在文献综述、假设案例研究和跨学科伦理推理的基础上。所提出的八个案例研究阐明了工程师和组织在人工智能日益嵌入实践中可能面临的前瞻性伦理困境。这些场景强调了关键保障措施的必要性——特别是在问责制、透明度和专业判断领域——并作为拟议框架的概念测试平台。
该框架围绕三个核心领域构建:技术基础;运营和治理框架;以及专业和社会责任。其中,七个关键支柱解决了基本的伦理要求,包括偏见缓解、稳健验证、可解释性、人工监督、专业标准、工程伦理和公平可及性。每个支柱都明确链接到基础伦理理论——例如正义、自主、不伤害、仁慈、功利主义和美德伦理——增强了框架的哲学严谨性和跨学科相关性。
该框架特别强调生命周期管理问题——例如模型漂移、反馈循环、持续验证和淘汰政策——这些问题被整合到验证和人工监督支柱中。它还考虑了地理和情境变异性,承认人工智能伦理必须对监管环境、法律体系和对风险和职业责任的文化规范差异保持敏感。该框架并非规定僵化的清单,而是提供可适应的指导原则,可根据具体情况进行调整。这种灵活的方法反映了结构工程中人工智能不断发展的性质,这是一个以持续技术创新和固有不确定性为特征的领域。
人工智能驱动的结构工程中的责任必须在人工智能生命周期中共享,并明确划分角色。工程师对安全关键型决策负有最终责任,特别是当人工智能输出影响设计或评估时。然而,责任也延伸到构建人工智能模型的开发人员、部署它们的机构以及管理其使用的监管机构。在框架的领域 C(专业和社会责任)中,通过强调从业者透明度、文档和伦理意识的指南来嵌入问责制。这些确保伦理责任不是抽象的,而是可操作和可归因的。为避免责任扩散,组织应建立明确的责任矩阵,分配人工智能部署链中的决策权限、监督义务和责任边界。
本研究还概述了关键的未来方向,包括跨学科研究合作的必要性、工程教育改革以整合人工智能伦理、适应数字孪生和量子计算等新兴技术、监管框架的演变以及包容性的公众参与。总而言之,这些前瞻性考量共同构成了将本研究中提出的伦理基础转化为更正式的协议和治理结构的路线图。
通过将伦理框架与结构工程标准对齐并参考新兴的国际法规(例如,ISO/IEC 23894:2023(国际标准化组织,2023a)和 ISO/IEC 42001:2023(国际标准化组织,2023b)),这项工作弥合了抽象伦理指南与安全关键型应用之间的差距。尽管该框架是概念性的,但它旨在成为一个活生生的结构——一个支持伦理远见、激发专业对话并为未来经验研究和监管发展提供信息的结构。
最终,这项工作旨在成为持续参与结构工程中人工智能伦理维度的催化剂。它邀请工程师、研究人员和政策制定者预见而非被动应对,将伦理融入技术系统的核心,并确保人工智能不仅促进工程效率,而且促进社会福祉、安全和信任。
---End---
来源:陆新征课题组