[纽约新闻] 纽约时报:失业别慌,AI带来22种新工作
领英首席经济机会官阿尼什·拉曼(Aneesh Raman)说:“我们的数据表明,到 2030 年,平均岗位所需的 70% 技能都会发生变化。”世界经济论坛《2025 年未来就业报告》预计,未来五年,人工智能等新兴技术将“替代” 900 万个岗位;但同份报告也指出,到 2030 年,人工智能将催生约 1100 万个新岗位,其中不少闻所未闻。
要想知道这些新机会何在,就得先看哪里能搭建人工智能强大能力与人类需求之间的桥梁。问题不仅是“人类想要哪里用 A.I.”,还包括“A.I. 想要哪里用人类”。在我看来,人类将愈发不可或缺的三大领域是:信任、整合与品味。
信任
纽约大学斯特恩商学院教授罗伯特·席曼斯(Robert Seamans)研究人工智能的经济影响。他设想了一批名为A.I. 审计员的新角色——深入人工智能系统,弄清它在做什么、为何如此,并为技术、说明或法律责任等目的出具文档。
他预估五年内,所有大型会计师事务所都会把“人工智能审计”列入业务范围。
他还设想了A.I. 翻译员:既懂人工智能,也能向企业领导者和管理层解释其运作机制的人。“A.I. 翻译员在超技术化的事物与管理者熟悉、需要的信息之间搭桥。”席曼斯说。
这两类职能都可归入“信任”大类。我没交那篇 A.I. 版文章,部分原因是会背叛编辑的信任,更因为我不信任那篇文章——不确信其真实性、准确性、公正性。没亲自做功课和思考,我就无法判断它是否公平、合理。
凡想在职场使用 A.I. 的人,都会遇到类似问题:它能瞬间输出海量内容,可我们该信到什么程度?又如何评估?
随着人工智能在工作与组织中影响力激增,我们将遭遇大量信任难题,而解决它们离不开人类。
•事实核查员、合规专员:法律文本、年报、产品规格书、研究报告乃至暖通合同,很快都将由A.I. 撰写,均需人类审核,以捕捉 A.I. 易犯的离奇错误。
•信任鉴定师/ 信任总监:负责出具可被追责的背书。
•A.I. 伦理师:为 A.I.(或人机混合团队)的决策搭建可辩护的逻辑链,对投资者、管理层、客户乃至法官与陪审团负责。席曼斯预计,未来企业的“伦理委员会”将比今天更有实权。
信任的核心是问责。从合同到核武系统,我们都需要能被追责的人类。
斯坦福大学“以人为本人工智能研究院”数字经济实验室主任埃里克·布林约尔松(Erik Brynjolfsson)说:“无论因果链多复杂,最终必须追溯到某个承担责任的人。”
•法律担保人:在法律、建筑等领域,A.I. 能完成大量基础工作,如起草合同或设计房屋,但终究要有人类——最好具备资质——签字背书。沃顿商学院教授伊桑·莫利克(Ethan Mollick)把这类岗位称为人工智能的“替罪羊(sin eaters)”。
•一致性协调员:A.I. 擅长很多事,却不擅长保持一致。时装屋如何确保某款礼服在数十张 A.I. 生成的照片中始终准确?制造业里的虚拟孪生经理如何确保数字复制品在迭代中保持一致?验证一致性需要能担责的专门角色。
•升级应对官:当A.I. 让人感到“太机器”时,人们往往想找能共情的真人。客服领域如此,教育领域亦然,出问题时需人类介入。
————
整合
鉴于人工智能的复杂性,许多新岗位将带浓厚技术色彩。需要深懂A.I.,又能将其匹配到业务需求的人才。
• A.I. 整合师:席曼斯称之为“把技术与公司衔接起来的人”。CEO 在财报会上喊“我们要投 A.I.”,但具体做什么?后端账单?招聘筛选?白领工作流?都要有人弄清。
• A.I. 管道工:A.I. 越来越“具备主动性(agentic)”,能自主解决复杂任务,系统愈加层叠。一旦出故障,就需有人顺着管道排查——找原因、修问题。
可供选择的模型也层出不穷。可汗学院(Khan Academy)把虚拟导师嵌入业务,让孩子学代数、写作文。光是跟踪模型更新、幻觉率、语言或数学能力优劣,就成了持续工作。创始人萨尔·可汗(Sal Khan)说,公司需要A.I. 评估员来专职评估。
领英数据也印证了整合岗位的崛起:
[加西网正招聘多名全职sales 待遇优]
分享: |
Note: | _VIEW_NEWS_FULL |
延伸阅读 | More... |
推荐: