

1. 客户满意度
1.1. 长久以来,许多人一直对机器人心怀忧虑
-
1.1.1. 往好里说,你会惹恼员工和客户
-
1.1.2. 往坏里说,你会彻底失去他们的信任
1.2. 如果输入的数据是“垃圾”—更具体地说,是带有冒犯性的“垃圾”,那么输出的结果很可能也是带有冒犯性的“垃圾”
1.3. 或许你永远无法彻底消除人们对人工智能的顾虑,但一些真诚的行动—比如展现出你对人工智能应用的用心考量和深思熟虑,会大有裨益
1.4. 透明度
-
1.4.1. 企业应在官网及内部员工平台公开披露人工智能在组织内的应用情况,涵盖所有服务、系统、软件及技术架构的各个环节
-
1.4.2. 让员工清楚地知道:使用了哪些类型的人工智能?应用在哪些场景?对决策产生了怎样的影响?
1.5. 数据安全与隐私
-
1.5.1. 数据保护是合理使用人工智能的核心环节
-
1.5.2. 客户希望了解自己的数据存储位置、访问权限、处理方式,以及如何确保第三方不会滥用其敏感信息
1.6. 偏见问题
-
1.6.1. 企业必须定期对组织进行审查和审计,确保人工智能系统中不存在偏见问题
-
1.6.2. 贯穿人工智能生态系统的各个环节:从训练数据采集、算法设计,到输出结果生成,再到使用者资质审核,以及数据决策应用
1.7. 人类始终在决策闭环中
-
1.7.1. 最能让客户安心的举措之一,是向他们表明人类始终对人工智能拥有最终控制权
-
1.7.2. 临床笔记总结与转录人工智能工具Tortus要求临床医生必须对所有人工智能生成的内容进行审核和检查
-
1.7.3. 确保人类始终处于决策闭环中,就能有理有据地反驳“机器人正在掌控一切”的说法—“不,人类始终拥有最终控制权。”
1.8. 乐于接受反馈并持续改进
-
1.8.1. 让客户能够便捷地提供反馈并积极付诸行动,有助于建立信任
-
1.8.2. 通过展现企业愿意根据客户反馈和偏好调整和改进人工智能的态度,能向外界表明是人类在主导人工智能的应用,而非被人工智能所控制
1.9. 第三方认证
-
1.9.1. 外部独立的第三方认证可提供有效的品质标识
-
1.9.2. 尽管这一领域尚在发展阶段,但企业很可能会越来越希望向外证明:他们并非在“自吹自擂”,而是对自身的人工智能应用方式有足够信心,并愿意接受外界评估
1.10. 微软2024年人工智能透明度报告
-
1.10.1. Microsoft 2024 AI Transparency Report
-
1.10.2. 生成式应用的构建方式
-
1.10.3. 关于“构建什么”的决策过程
-
1.10.4. 如何支持客户负责任地构建生成式人工智能
-
1.10.5. 生成式人工智能的发展前景
1.11. 最佳做法是倾听客户的声音
-
1.11.1. 通过直接反馈、问卷调查或“神秘顾客”等方式,定期询问他们对人工智能的看法与感受
-
1.11.2. 他们担忧什么?原因是什么?
-
1.11.3. 只要始终围绕核心利益相关者的需求与诉求来规划行动,你就能明确应采取哪些举措,确保他们对企业的人工智能应用感到放心
1.12. 与客户和利益相关者保持紧密联系的最佳方法之一是开展用户研究
1.13. 采取措施降低风险
- 1.13.1. 量化整体用户群体特征,确保访谈对象具有代表性。若无法完全规避风险,则需在整个研究过程中时刻留意那些难以缓解的风险
1.14. 既要意识到这些风险的存在,也不能因风险而阻碍工作—没有任何数据或研究是完美无缺的
1.15. 研究的开展过程必须严谨且一致:获取并记录用户的知情同意,告知他们研究收集的数据将如何使用
1.16. 探索性研究:了解用户在现有或潜在产品、服务、交易(如投资理财)方面的潜在需求
1.17. 流程梳理:清晰描述用户为达成特定目标所经历的端到端流程(即 “用户旅程”)
1.18. 改进性研究:让用户测试原型或已上线的服务,观察他们与技术的互动方式,从而发现优化改进的机会
1.19. 深度访谈:由研究人员与用户直接进行一对一交流,通过一系列开放式和封闭式问题收集信
1.20. 观察法或可用性测试:为用户设定特定任务,观察其操作过程并记录相关见解
1.21. 小组活动:形式多样,例如引导多名用户共同绘制端到端流程,或进行“卡片分类”—让用户将主题卡片归入不同组别
- 1.21.1. 有助于了解用户对信息的分类方式,它所揭示的是用户天然的逻辑认知,而非企业预设的信息分类逻辑
2. 人工智能法律法规
2.1. 人工智能属于通用技术,其对世界的改变将以我们目前无法预见的方式展开
2.2. 欧盟
-
2.2.1. 2024年正式通过的《欧盟人工智能法案》(EU AI Act),是首次具有重要意义的跨国人工智能监管实践
-
2.2.2. 低风险:涵盖人工智能的大多数应用
-
2.2.2.1. 垃圾邮件过滤器、电子商务中使用的人工智能推荐系统等
-
2.2.2.2. 对使用这类系统的机构未设定义务性要求
-
2.2.3. 有限风险:如聊天机器人、人工智能生成的视频或图像内容等
-
2.2.3.1. 相关机构必须确保客户知晓这些服务采用了人工智能技术
-
2.2.4. 高风险:包括医疗设备中的安全组件、执法领域的人工智能系统、教育系统中的人工智能应用等
-
2.2.4.1. 需遵守严格的监管要求
-
2.2.5. 不可接受风险:例如社会评分系统(如信用评分)、实时生物识别工具的大部分使用场景等
-
2.2.5.1. 此类应用被明令禁止
2.3. 美国
-
2.3.1. 自动驾驶汽车:美国国家公路交通安全管理局(NHTSA)负责监管汽车领域人工智能的应用
-
2.3.2. 贸易领域:联邦贸易委员会(FTC)针对人工智能制定了专门的消费者保护条款
-
2.3.3. 司法领域:司法部(DOJ)对算法的安全与公平使用提出了人工智能相关要求
-
2.3.4. 保持美国在全球人工智能领域的领先地位
-
2.3.5. 推动联邦政府使用“可信人工智能。”
-
2.3.6. 实现人工智能的安全、可靠与可信开发及应用
2.4. 中国
-
2.4.1. 互联网信息服务算法推荐管理规定
-
2.4.1.1. Provisions on the Administration of Algorithm-generated Recommendations for Internet Information Service
-
2.4.2. 新一代人工智能伦理规范
-
2.4.2.1. Ethical Norms for New Generation Artificial Intelligenc
2.5. 超过30个国家签署的《布莱切利宣言》(Bletchley Declaration),该宣言鼓励国际合作并聚焦发展“可信人工智能”
2.6. 经合组织人工智能原则
2.7. 联合国教科文组织的《人工智能伦理问题建议书》
2.8. 一个快速发展、不断变化的领域
2.9. 人工智能领域的规范主要由指导意见、框架和原则构成
2.10. 在这个全球化且互联互通的世界中,各国的监管方式存在显著差异
2.11. 为合规工作预留充足预算
-
2.11.1. 跟进行业动态及调整内部政策均需成本投入,务必将其纳入预算
-
2.11.2. 实际上是“入场费”,也是开展业务的必要支出
2.12. 从原则入手
- 2.12.1. 法律法规的存在既是为了保护客户,也是为了让你的业务更完善
2.13. 记录并审计所有事项
-
2.13.1. 《欧盟人工智能法案》是目前人工智能领域要求最严格的法律条文之一
-
2.13.2. 以其为基准对部分公司而言可能有些过于严苛,但也不失为一种明智的做法
2.14. 持续更新与前瞻预判
-
2.14.1. 关注风险与法律变化是一项持续性工作
-
2.14.2. 你面临的风险在不断变化,监管环境亦是如此
-
2.14.3. 应专门分配少量但固定的资源用于此项规划
3. 职业发展
3.1. 纵观历史,通用技术在摧毁就业机会的同时,也会创造新的岗位
-
3.1.1. 在飞机出现之前,不存在航空业
-
3.1.2. 在汽车诞生之前,也没有汽车产业
-
3.1.3. 人工智能很可能也会重演这种“取代与创造并存”的戏码
3.2. 首席人工智能官的出现,如同约10年前首席数字官(Chief Digital Officer,CDO)的兴起,标志着众多企业的思维模式发生了转变
- 3.2.1. 最明确的体现之一,便是将人工智能相关工作职能提升至最高管理层级别
3.3. 提示词工程师(prompt engineers)一度被视为极具潜力的新兴职业
3.4. 任职要求
-
3.4.1. 能够通过精准设计的提示词,改变大语言模型的行为,或引导其产生目标行为
-
3.4.2. 深入理解大语言模型及其架构,包括全面掌握GPT等Transformer模型的底层工作原理
-
3.4.3. 熟练掌握提示词工程技术,如少样本学习、思维链提示、自动提示词生成、ReAct框架等
-
3.4.4. 擅长通过BLEU、ROUGE等指标评估和探究大语言模型的输出质量,或运用评估框架衡量模型的推理、编码等能力
-
3.4.5. 具备开发实际应用的经验,能利用大语言模型完成问答、文本生成、编码辅助等任务
-
3.4.6. 能够通过统计与数据可视化分析模型性能
-
3.4.7. 具备良好的编程技能,熟练掌握Python
-
3.4.8. 具有出色的书面表达与口头沟通能力
3.5. 加分项
-
3.5.1. 拥有在世界级研究团队中与科学家和工程师协作的经验
-
3.5.2. 具备丰富的Python使用经验,包括理解语言细节、掌握多样的Pythonic编程风格,以及熟悉庞大的生态系统与广泛的工具
-
3.5.3. 拥有直接的研究经历(如技术领域博士学位,或在NeurIPS、ICML、ICLR等会议上发表过重点论文)
-
3.5.4. 具备深厚的语言学理论知识
3.6. 对标同行
3.7. 倾听团队声音:密切关注团队动态
3.8. 审视风险清单:技术发展既会带来新机遇,也会伴随着新风险
3.9. 人力成本不菲,而新兴的人工智能热门岗位在市场上往往薪资高昂
3.10. 抛开预算投入不谈,招聘这类人工智能专业岗位,向利益相关方与市场释放的信号是:你正认真对待人工智能时代的到来
文章摘自:https://www.cnblogs.com/lying7/p/19979678
