聚光灯
人工智能伦理专家、人工智能伦理顾问、人工智能伦理官员、人工智能伦理标准分析师、人工智能政策与伦理顾问、人工智能治理专家、人工智能责任发展经理、人工智能伦理决策顾问、人工智能伦理与合规官员、人工智能伦理框架开发人员
人类是有缺陷的、有偏见的、充满矛盾情绪的集合体。我们经常做出错误的决定,往往在这个过程中伤害了自己或他人。那么,当人们试图构建人工智能程序,让它像我们一样思考和行动时,会发生什么呢?
人工智能就像一个孩子,它会吸收我们传达给它的一切信息,包括好的、坏的和丑陋的。我们提供给人工智能模型的数据中,即使不是大部分,也有很多是我们人类自己的观点、偏好和偏见。然而,我们却期望人工智能的输出--它的反应--是客观的、合乎逻辑的和不带偏见的。
我们希望人工智能在某种程度上比我们更好。这怎么可能呢?与孩子不同,人工智能并不是真正有知觉的。它(还)不能真正独立思考,也不能识别自己什么时候做 "错了"。微软的必应人工智能就是一个例子。 失控了开始 "侮辱他人,欺骗他人,甚至在情感上操纵他人"。
这些问题正变得越来越普遍,但由越来越多的专家来解决,他们被称为人工智能伦理学家。正如 德勤解释说:"人工智能伦理学家的一个主要职责......是通过在人工智能系统的设计、开发和部署中加入伦理、社会和政治视角,改进人工智能的工程方法。其他主要职责包括就人工智能伦理实践提供建议,防止行为不当的人工智能产生意想不到的后果,以及确保人工智能相关决策和行动的问责制"。
- 帮助改进人工智能系统,更好地为人们服务
- 在一个变革性行业工作,该行业有可能在许多方面改善人们的生活
- 丰厚的薪酬和良好的就业前景
工作日程
人工智能伦理学家全职工作,根据目标和时间安排,可能需要加班。他们的工作在室内进行,但可能需要偶尔出差。
典型职责
- 创建、评估和实施负责任的人工智能 (RAI) 实践和工具
- 评估与 RAI 有关的组织准备情况
- 与团队合作,在人工智能模型开发过程中纳入伦理考虑因素
- 对用例和系统进行伦理分析
- 分析各种伦理问题,如偏见、隐私和自主权
- 开展学术研究并撰写论文概述研究成果
- 制定人工智能开发和部署的道德框架
- 为政策制定者和利益相关者提供有关伦理影响的指导和教育
- 帮助制定标准和最佳做法
- 确保人工智能模型的行为符合既定的道德原则和价值观
额外责任
- RAI 项目咨询
- 编写培训材料
- 与跨职能团队合作解决问题
- 保存完整的程序文件
- 了解行业的最新进展和趋势
软技能
- 适应性
- 分析性的
- 协作
- 沟通技巧
- 创造性
- 批判性思维
- 注重细节
- 纪律严明
- 富有同情心
- 伦理
- 独立的
- 诚信
- 循序渐进
- 有组织的
- 病人
- 演讲技巧
- 解决问题
- 健全的判断力
- 团队合作
- 时间管理
- 写作技巧
技术技能
- 了解人工智能技术,包括机器学习算法、自然语言处理和计算机视觉
- 数据分析方法和程序
- 编码常识(如 Python 或 R)
- 熟悉数据隐私法律法规
- 网络安全原则
- 以人为本的设计原则
- 人工智能系统风险评估
- 私营商业企业
- 人工智能研究公司
- 大学
人工智能伦理学家的工作范围相当广泛。他们负责制定伦理框架和准则,并进行全面、客观的评估,以确保人工智能模型以合乎伦理的方式行事。这涉及大量跨学科合作,有时会出现分歧甚至冲突。
西伦敦大学的 Paula Boddington 博士指出 指出人工智能伦理 "要求我们不断质疑我们的伦理决定是否正确"。人工智能伦理学家必须保持正直和坚定,同时识别他们认为存在的伦理风险,例如有偏见或歧视性的人工智能模型行为。他们必须诚实,有时要告诉决策者和利益相关者他们可能不想听的话。
最近,人工智能(如 ChatGPT 和谷歌的 Bard)凭借其令人印象深刻的一系列能力掀起了波澜。事实上,许多技术领导者现在都在敲响警钟,认为人工智能发展得 太快 没有足够的护栏来保护公众或企业。
例如,存在版权问题,因为谁 "拥有 "人工智能程序的作品?人工智能伦理学家也会为意外泄露敏感信息而寝食难安,比如人工智能无意中泄露了受保护的私人数据。
许多职业领域 受到威胁但这只是人们提出的众多担忧之一。人们对人工智能怪异行为的担忧也是有道理的,例如必应的人工智能进入了 "强迫性跟踪模式。这些有害内容只是人工智能可能出问题的冰山一角。不乏神经质的末日预言家,他们认为人工智能是对人类生存的威胁、 就像 天网的天网!
人工智能伦理学家可能从小就热衷于技术。他们可能对数学、计算机编码、修补编程语言,甚至是 黑客.同时,他们也可能喜欢分析问题或阅读哲学、社会问题或公共政策方面的书籍。
团队合作是这一职业领域的重要组成部分,但人工智能伦理学家有时也必须愿意在出现分歧时独自发表不同意见。他们的工作就是确保人工智能的道德操守。这种坚持正义的能力可能是通过童年的经历培养出来的。
需要的教育
- 人工智能伦理学家确实需要大学学位,但工作资格要求各不相同。没有一个特定的学位或学位等级(如学士、硕士、博士)适用于每一个人工智能伦理学家职位。
- 热门专业包括哲学、计算机科学、法律、心理学和社会科学。
- 拥有高级学位会有所帮助,但拥有广泛的相关教育背景也很重要
- 例如,雇主可能希望应聘者拥有计算机科学学士学位(侧重于人工智能)和哲学硕士学位(侧重于应用伦理学或道德哲学)。
- 雇主还希望应聘者具有与人工智能开发、决策和研究相关的实际工作经验。有些雇主可能还希望应聘者具备自然语言处理、机器学习和大型语言模型方面的经验。
- 常见的课程主题包括
- 人工智能与政策
- 人工智能与社会
- 人工智能伦理与哲学
- 人与人工智能的互动
- 人工智能的法律问题
- 学生还可以学习编程语言,如 Python等编程语言
- 课堂中心提供一系列免费人工智能伦理在线课程的详细信息
- 还可以查看 Coursera 提供的课程和认证,如 人工智能:概述专业课程
德勤指出了找到一个具备所有必要资格的候选人的困难。"试图找到一个在所有这些领域都拥有可靠经验和知识的人实际上是不可能的。相反,企业应该采取团队合作的方式来处理人工智能伦理问题,通过学习如何无缝协调和整合来自不同专业专家的见解,来实现所需的多学科能力和经验。"
- 首先,确定自己的主修专业。哲学和计算机科学是热门专业
- 查看学校专门针对人工智能伦理开设的课程
- 考虑双学位或联合学位课程(学士学位和硕士学位一起攻读),您可以根据最适合人工智能伦理工作的情况来调整自己的学业。
- 查看该计划的毕业生就业统计数据
- 考虑学费、折扣和当地奖学金的机会(除联邦援助外)。
- 在决定报读校内课程、在线课程或混合课程时,请考虑您的时间安排和灵活性!
- 报名参加计算机科学、编程、英语、写作和辩论课程、 修辞学哲学、商业法、社会科学和公共政策课程
- 想方设法培养团队合作、项目管理、解决问题和解决冲突的技能
- 从 Coursera, Udemy, 微软, DeepLearning.AI和其他网站
- 通过与 NLP、ML、LLM 和/或编程相关的兼职工作获得实际经验
- 开始制作简历,并在学习和积累工作经验的过程中对其进行补充
- 提前查看招聘信息,了解平均要求是什么。人工智能伦理学家职位的教育要求可能不尽相同
- 要求进行 信息访谈与在职的人工智能伦理学家面谈。询问他们的教育之路,以及他们可能采取的不同做法
- 列出您的联系人名单(包括电子邮件地址或电话号码),这些人可能会成为您未来的工作推荐人
- 阅读书籍和文章,观看有关当前人工智能伦理挑战的视频
- 参加在线论坛辩论和讨论。建立联系和 社会资本在人工智能社区内
- 参与专业组织的活动,学习、分享、结交朋友、拓展人脉。可以考虑加入的组织包括
- 完成相关学位,如计算机科学或哲学,侧重于人工智能伦理
- 在申请之前,尽可能多地获得 NLP、人工智能、法学硕士等方面的实践经验
- 如果你的大学课程没有提供足够的相关课程,可以通过选修与人工智能伦理相关的特别课程来充实你的简历
- 查看就业门户网站,如 确实, Simply Hired, Glassdoor, AI-Jobs.net和 人工智能招聘网站
- 注意招聘启事中列出的教育和经验要求,并记下可在简历中重复使用的关键词。关键词可包括
- 人工智能审计
- 人工智能技术
- 解决冲突
- 批判性思维
- 跨职能合作
- 数据隐私和安全
- 决策
- 新兴技术
- 伦理分析
- 制定道德框架
- 解决问题
- 项目管理
- 遵守法规
- 研究与评估
- 风险评估
- 透明度和问责制
- 在线查看 人工智能伦理学家简历模板并查看潜在的求职面试问题
- 向学校的就业中心咨询,以获得撰写简历、进行模拟面试、学习如何着装以获得面试成功的帮助,以及寻找招聘会的帮助。
- 向在职的人工智能伦理学家请教求职秘诀!
- 向你的学术顾问、教授和导师请教有关开创事业的建议
- 让你的关系网知道你在找工作!大多数工作仍然是通过熟人找到的,因此请开始利用你的社交资本!
- 搬到有工作的地方每 Versa Networks,人工智能领域招聘最多的州是加利福尼亚州、德克萨斯州、纽约州、华盛顿州、弗吉尼亚州和马萨诸塞州
- 请求允许在求职申请中将某人列为个人推荐人
- 在 LinkedIn 上建立个人档案,开始撰写有关人工智能伦理的文章!
- 了解正确的人工智能模型训练的重要性,以及一旦出错给企业带来的后果。谷歌母公司 Alphabet的 Bard 聊天机器人首次亮相时......给出了错误的答案,几乎一夜之间市值损失了 1000 亿美元。与此同时,必应在开发出一个奇怪的 另一个自我名为 "悉尼"(Sydney
- 遵循并认真记录程序,确保一致性和准确性
- 询问你的雇主,你可以提高哪些技能来更好地满足他们的需求。这可能是一个更高级的学位,也可能是一个证书,或者只是一些额外的课程。
- 展示高尚的道德价值观、诚信和商业头脑
- 与同伴有效合作,但不要屈服于同伴的压力。专注于解决问题
- 全面培训新的伦理学家,但也要倾听他们的观点。保持开放的心态,因为这一领域有许多主观因素(毕竟它植根于哲学!)。
- 与专业组织保持联系,了解最新突破。人工智能发展日新月异,世界各地的团队正努力将其推向更高水平
- 不要只关注当前的问题。预测不断增长或 潜在问题可能出现的问题,并制定应急计划!
随着人工智能的不断发展,人类应该如何对待它?人工智能最终会达到具有自我意识的程度吗?如果是这样,我们会相应地对待它......还是仅仅把它当作一个程序而不是一个有生命的创造物来利用?
长期以来,科幻小说家们一直对这些问题耿耿于怀。从艾萨克-阿西莫夫的 我,机器人小说到《星球大战 的歧视性待遇C-3PO 等机器人的歧视性待遇,人工智能生命体的前景往往被描绘得十分暗淡。星际迷航:下一代》(Star Trek: The Next Generation)中的一集《人的尺度》(The Measure Of A Man)详细探讨了这一伦理前沿问题。 "一个人的尺度 "中在这一集中,飞船舰长皮卡德必须 "证明 数据[有自我意识的机器人]在法律上是有生命的,根据联邦法律享有权利和自由......"
网站
- 埃森哲
- 立即访问
- ACM
- 阿达-拉芙蕾丝研究所
- 适应
- AI4ALL
- 人工智能伦理研究所
- Now 人工智能研究所
- 人工智能专业人员协会
- Anch.AI
- 算法正义联盟
- 阿兰-图灵研究所
- 算法观察
- 艾伦人工智能研究所
- 计算语言学协会
- 计算机械协会
- 人工智能促进会
- Atomium
- 百度公司.
- 巴德
- 伯克利法律与技术中心
- 必应人工智能
- 剑桥数据中心促进数据驱动的发现
- 人工智能与数字政策中心
- 种族批判与数字研究中心
- 数据创新中心
- 人类兼容人工智能中心
- 人类技术中心
- 信息技术政策中心
- 互联网与社会中心
- 存在风险研究中心
- 民用基础设施平台
- 消费技术协会
- 大数据、伦理与社会理事会
- 课堂
- DARPA
- 数据道德
- 数据正义实验室
- DeepLearning.AI
- 电子前沿基金会
- 伦理网
- 欧洲人工智能协会
- Fast.ai
- 联邦贸易委员会--技术研究与调查办公室
- 人类未来研究所
- 未来生活研究所
- 隐私权的未来论坛
- 未来社会
- 全球灾难风险研究所
- 基因组
- 治理实验室
- IEEE
- IEET - 伦理与新兴技术研究所
- IFTF - 未来研究所
- 人工智能与机器学习伦理研究所
- 国际模式识别协会
- 国际神经网络学会
- 学习提示
- 利弗霍姆未来智能中心
- 机器智能研究所
- 微软
- 麻省理工学院-CSAIL 计算机科学与人工智能实验室
- 内斯塔
- NIST
- 国家人工智能安全委员会
- 经合组织人工智能政策观察站
- OpenAI
- 开放数据研究所
- 人工智能合作伙伴关系
- 马里兰大学的 PERVADE
- 国际隐私权组织
- ProPublica
- 普华永道
- 权利会议
- 机器人产业协会
- Salesforce - 爱因斯坦人工智能
- 软件网站
- 斯坦福大学 HAI
- 技术政策实验室
- 乌德姆
- 犯罪司法所人工智能和机器人中心
- 世界经济论坛
书籍
- 人工智能伦理(麻省理工学院出版社基本知识丛书), 作者:马克-科克尔伯格
- 人工智能伦理,作者:S. Matthew Liao
- 牛津人工智能伦理手册, 作者:马库斯-杜伯、弗兰克-帕斯夸莱、苏尼特-达斯
成为人工智能伦理学家的道路并不像大多数职业那样一目了然。随着人工智能技术的不断进步,情况可能会发生更大的变化。如果你想从事与技术相关的工作,但又想考虑一些其他选择,请查看以下选项!
- 人工智能提示工程师
- 大数据工程师
- 商业智能开发人员
- 计算机硬件工程师
- 计算机程序员
- 计算机系统分析员
- 数据库架构师
- 数据科学家
- 信息安全分析师
- 数学家
- 机器学习工程师
- 机器人工程师
- 软件工程师
- 软件架构师
- 网络开发员