視角洞察

The Perspective Insight

在专业工作环境中负责任地使用人工智能 (Generative AI)
人工智能 (Generative AI) 通过协助撰写文件、总结资料和进行研究,提高了办公室的工作效率。然而,过度依赖可能导致错误、错误信息以及数据安全风险。未经核实的 Generative AI 输出、虚构的引用,以及不谨慎地分享敏感信息,已经造成法律处罚和声誉损害。专业人士在工作和法律环境中使用 Generative AI 时,必须保持谨慎、核实事实,并维持必要的人类监督。
Responsible Use of AI


近年来,生成式人工智能(Generative AI)已逐渐成为提升现代办公环境效率的重要工具。许多过去需要耗费大量时间与精力完成的日常工作,如今借助 Generative AI 系统可以迅速完成。例如,起草文件、总结长篇资料、撰写报告、搜索信息,以及制作图表或数据可视化,往往只需数秒即可完成。这些能力使专业人士能够简化工作流程、提高生产力,并将更多精力集中在更高层次的分析或策略性工作上。


然而,过度依赖 Generative AI 工具也可能带来显著风险。当用户习惯于在未进行适当核实的情况下直接信任 Generative AI 生成的内容时,错误就可能发生。在某些情况下,这些不准确的信息可能影响较小;但在其他情况下,尤其是在专业、法律或技术领域使用 Generative AI 生成内容时,其后果可能十分严重。


生成式人工智能系统 (Generative AI) 的一个根本局限在于,它们是基于概率算法生成回应,而不是基于经过验证的事实。AI 模型会分析大量数据中的模式,并生成看似合理且连贯的答案,但这些信息并不一定经过事实核查或验证。因此,生成式 AI 输出可能包含偏见、过时信息、不相关内容,甚至完全虚构的引用或参考资料。此外,由于生成式 AI 系统有时会从用户互动及先前提交的内容中学习,不准确或具有误导性的资讯可能在不知不觉中被纳入更广泛的知识库,并用于生成未来的回应。


鉴于这些风险,监管机构和法律机构已开始就生成式 AI 的负责任使用发布指导。在澳大利亚,新南威尔士州最高法院发布了 《Practice Note SC GEN 23 – Use of Generative Artificial Intelligence》,为法律从业人员提供相关指引。该实践指引明确指出,生成式 AI 不得用于撰写或生成关键证据文件,例如宣誓书(affidavits)、证人陈述(witness statements)、品格证明(character references)、证人证据或意见。此外,该指引还强调,一旦证人的证词已以书面形式表达,生成式 AI 不得用于修改、加强或重新表述该证词。这些限制反映了维护法律证据真实性与完整性的重要性。


不谨慎使用 AI 还可能带来严重的数据安全风险。许多用户因为 AI 工具快速、便利且能够简化复杂任务,而将敏感信息上传至相关平台。然而,用户可能错误地认为自己提供的信息是私密或临时的。2023 年 4 月,一家大型半导体制造企业的一名工程师在使用公开 AI 工具协助调试复杂代码时,无意中上传了公司的专有源代码、测试流程以及机密工程笔记。由于该平台的默认设置允许将用户输入纳入训练数据库中,这些信息最终成为平台内部数据的一部分,并难以被检索或删除。虽然事件中并没有恶意行为,但由于缺乏谨慎,企业的重要知识产权实际上已经被暴露。


现实中的法律后果也已经开始出现。2025 年末,澳大利亚一宗仲裁案件涉及一名承包商向地方政府提交的发展及规划申请,该申请几乎完全由 Generative AI 生成,却未经过适当的事实核查。申请文件中包含不准确的信息及缺乏依据的陈述,最终该承包商因此受到处罚。同年,一名澳大利亚律师因向法院提交包含 Generative AI 生成的引文和引用而面临纪律处分,而这些引用后来被证实为虚构。除了产生经济处罚外,此类事件还对个人或机构的声誉造成长期损害。


这些案例凸显了一个重要的事实:虽然生成式 AI (Generative AI) 能够显著提升职场的效率与能力,但其使用必须保持谨慎与负责任。人类的监督、事实核实以及专业判断仍然至关重要,以确保信息的准确性、维护数据机密性,并保护组织的诚信及专业声誉。