What does it mean to be pragmatic about AI adoption, while staying true to the values and mission driving people and organizations? 何时 她决定谈论人工智能,她的意图是说她必须说的一句话,然后继续她的生活,没有人再问人工智能。 艾丽莎·林丁格 Lindinger是该组织的联合创始人 SUPERRR成立以服务于数字政策是社会政策,它需要大胆的愿景和女权主义价值观。 超级 与今天大多数其他个人和组织一样,林丁格的邮箱每天都充满了新的邀请,邀请讨论人工智能,促进女权主义人工智能研讨会,或不可避免的教练报价,最终学习如何正确提议。 这让林丁格觉得其他同样关键的主题正在从谈话中消失。 “这是一次试图将SUPERRR的人们如何看待人工智能现象,以及他们为什么认为将我们的注意力转向其他话题至关重要。 AI和不太可能 相反,发生的事情是 ,重新点燃人工智能的主题并窃取光线。算法错误?也许。但是SUPERRR的立场,拒绝盲目采用生成人工智能的叙述,与许多人共鸣。 SUPERRR的帖子在LinkedIn上成为病毒 我们与林丁格会面,探索一些人表面上可能称之为鲁迪主义方法背后的细微差别,并谈论正确设定优先事项,想象人们想要生活的未来,以及如何从AI文盲到未来文盲。 背景不能更及时。 AI叙述中的裂缝开始显示 https://www.youtube.com/watch?v=aoVkNdLhq1M&embedable=true AI – what for? AI - 为何? 林丁格是受过培训的史前考古学家,她将这个主题描述为一个非常密集的和非常数据驱动的课题。 作为一个终身的 tinker,林丁格带来了这种方法,让她熟悉统计学,数据科学,数据库和机器学习,她逐渐从自己的领域转向计算机科学,最终离开学术界追逐她对民间社会工作的热情。 通过在德国开放知识基金会(Open Knowledge Foundation Germany)等组织的工作,林丁格开始了工作。 , 虽然她很享受这项工作,但有一件事一直困扰着她:为何?使用这些工具的目的是什么? 开放数据 开源 “开放对我来说不是一个目标,它是一种工具,它是一种价值,我们必须申请某些东西,这就是为什么我的联合创始人Julia Kloiber和我决定我们想要创建自己的组织的原因,因为我们的想法是推动一个更公平和公平的社会 - 我们实际上没有在现有组织中可以做到这一点的空间,”Lindinger说。 “开放对我来说不是一个目标,它是一种工具,它是一种价值,我们必须申请某些东西,这就是为什么我的联合创始人Julia Kloiber和我决定我们想要创建自己的组织的原因,因为我们的想法是推动一个更公平和公平的社会 - 我们实际上没有在现有组织中可以做到这一点的空间,”Lindinger说。 同样的问题 - “为何” - 是核心 林丁格过去曾在机器学习项目上工作过,也一直在跟上这个领域的个人兴趣,她的怀疑来自知识的地方,正如她所说,“我并不反对背后的数学”。 林丁格的AI宣言为SUPERRR 林丁格觉得不得不清除SUPERRR对人工智能的立场的原因是,与其他领域一样,在民间社会中,人工智能已经变得太大了,无法忽视。 Knowing what we talk about, when we talk about AI 知道我们在谈论什么,当我们谈论AI 一切都始于 在他的书的介绍中 ,Arvind Narayanan和Sayash Kapoor提出了一个思维实验:想象一下,我们不是谈论自行车,火车,汽车或飞机,而是称它们为“车辆”。 知道当我们谈论AI时,我们在谈论什么 蛇油 没有语言的特殊性,我们将无法描述如此多的交通问题,更不用说为它们开发有效的解决方案。 正如林丁格所指出的,一些这些方法是有用的和经过研究的。其他方法可能对社会构成重大风险,提出非决定性的方法,因此很难根据其影响来评估。 是的 一旦你从谈论特定应用程序,这是完全有效的,只是谈论人工智能作为一个地方,话语倾向于改变。 如今,当人们谈论人工智能时,他们大部分时间都指的是生成人工智能:基于变压器的人工智能。 显然,这不是AI的全部,但GenAI劫持了言论和人们的注意力,推动了AI的狂欢。 数据、水和电力饥饿的深度学习方法 AI hype and harms AI hype 和 Harms 林丁格声称,围绕人工智能的狂热服务于一个目的:它允许人们对其益处做出大声声称,而不认真对待它的伤害。 例如,该 ;尽管有关于这一点的讨论,但仍有专注于发展 人工智能今天所造成的损害被未来的承诺所遮蔽: ”。 人工智能产业对环境和气候产生破坏性影响 资源饥饿的数据中心。 人工智能可以帮助治愈癌症,或者提供免费的全球教育 - 所以我们需要数据中心 人工智能也加剧了世界上的不公正,从 哪些语言和知识基础 ,并以 在AI的输出中 · 让我们不要忘记 和 . 引发科技兴起的无形劳动力 被认为有价值和有用的 谁是可见的 以及如何 大规模版权侵权 模型崩溃 如果我们遵循人工智能潮流,我们对未来的愿景就会变成过去的扭曲形象,一个“ 林丁格警告说,以人工智能为基础的策略可能已经达到新的高度,但对于大技术来说,这并不是什么新鲜事。 帝国 “我来自黑客和黑客文化,对我来说,技术最终是能够实现的,这是一个迷人的,有趣的,我想理解的东西。 “我来自黑客和黑客文化,对我来说,技术最终是能够实现的,这是一个迷人的,有趣的,我想理解的东西。 每当一个销售场所想让我受到压力时,我的警报铃声就会响起,我认为你必须隐藏一些东西,因为你不想让我仔细看看,”林丁格说。 每当一个销售场所想让我受到压力时,我的警报铃声就会响起,我认为你必须隐藏一些东西,因为你不想让我仔细看看,”林丁格说。 Is AI really adding value? AI真的增加价值吗? Lindinger描述了围绕人工智能的热情为Labubu,但对于董事会高管来说,它是关于成为混乱的一部分。 如 虽然员工大多遵循授权来拥抱该技术,但很少有人看到它创造真正的价值,例如,完全由人工智能驱动的流程的公司数量 在2024年,人工智能的使用也同样 从2023年开始工作。 斯坦福社交媒体实验室和BetterUp实验室的研究人员分享了HBR 几乎翻了一番 双重 然而,这对组织的生产力和盈利能力究竟会有什么影响,这是值得辩论的。 是的 A 的 来自麻省理工学院媒体实验室的研究人员声称,95%的组织对这些技术的投资没有可衡量的回报。 此外,他们补充说,该报告只针对概念项目的证据,由于其性质,不能期望具有高回报率。 最近的报告 批评者声称该报告的方法是缺陷的,没有提供结论性的证据 其他报告,如 与2024年初相比,更大比例的受访者表示,他们的组织的GenAI使用案例增加了收入,并在部署它们的业务单位中带来了有意义的成本削减。 . KcKinsey的“AI的状态” 上一篇:最近的Lawf Show Drawing the line 绘制线路 无论如何,潮汐可能正在转移,自追踪开始以来,大型企业首次减少了其GenAI的采用。 . 自2025年6月以来,拥有250名员工以上的公司的人工智能使用率从14%下降到12%。 这可能是MIT报告揭示的核心问题的一个症状 - 人工智能顾问保罗·弗格森(Paul Ferguson)所说的经典案例 技术推力是“我们有人工智能,我们可以做什么?”而市场推力是“我们有问题X,人工智能可以帮助吗?” “技术推”与“市场推” 林丁格指出,FOMO和这种不可避免的观点从来不是决策的良好基础,所以我们应该暂停一会儿,问:我们想要什么?不:我们必须做什么。 So where should organizations draw the line? What types of use cases are the right ones for AI? 对于林丁格来说,使用人工智能只适用于次要功能. 以翻译为例,使用人工智能可以快速了解事情的内容,但要用不同的语言呈现工作结果,或者生成原创研究、艺术和内容,SUPERRR 与专业人士合作。 “当谈到将我们的价值观转化为我们发布的产品时,我们与专家合作,我们与艺术家合作,这就是我们作为一个组织的线路。 “当谈到将我们的价值观转化为我们发布的产品时,我们与专家合作,我们与艺术家合作,这就是我们作为一个组织的线路。 AI and workslop AI与WorksLop 在描述她与人工智能合作的经验时,Lindinger提到必须不断编辑结果的过程,例如,有某些术语SUPERRR不使用,当使用LLM进行翻译时,他们会将不必要的术语隐藏在文本中,然后有人必须通过文本并编辑它。 林丁格认为这并不值得 - 实际上这比与一个只知道他们的技巧的翻译员合作更重要。 ”。 工作岗位 是的 正如人们所说的那样, ,Workslop的阴谋效应是,它将工作负担转移到下游,要求接收者解释,纠正或重写工作。 笔记 例如, 但不仅仅是对反弹的恐惧,它应该阻止人们和组织将核心功能外包给人工智能。 微软首席执行官Satya Nadella因在X上分享看起来像人工智能产生的文章而受到批评 它是关于更多的比 关于“认知脱载”的研究(使用GPS,计算机或人工智能来思考任务)表明,当大脑没有锻炼时,可以测量性失调。 ”。 失去一个人的声音 未知的知识 AI literacy 文学 回顾了这一切,我们回到这个概念。 : 了解AI足以行使知情判断,但AI文盲究竟意味着什么,我们如何到达那里? 文学 林丁格指出,数字领域的识字概念并非新鲜事,数据识字或数字识字等先例存在,这些不同讨论中有一些共同的见解,她认为识字对话给个人带来了很大的压力,这并不公平。 “成为AI熟练的第一步是能够看到你是否使用了什么类型的AI。我们在提供商方面存在一个问责问题,他们在工作场所的个人应该用AI熟练来补偿。 “成为AI熟练的第一步是能够看到你是否使用了什么类型的AI。我们在提供商方面存在一个问责问题,他们在工作场所的个人应该用AI熟练来补偿。 对于林丁格来说,理想情况下,人们使用的工具应该具有某种类型的标签,以表示他们使用的自动化程度和类型,而且人们也应该首先在统计和概率的基本概念上接受教育,以建立AI文盲的基础。 From AI literacy to futures literacy 从AI文学到未来的文学 林肯认为 这是人工智能素养的良好框架,重点是创造和改造,但她宁愿将人工智能素养留给专注于人工智能的人。 与人们合作,想象他们想要生活的未来。 AI文盲的六大支柱 未来 “我们习惯了生活在高度结构化的环境中,这并不真正给我们创造性的空间,从我们学到的东西中解脱出来,想象一些彻底的新东西,然后我们可以弄清楚我们是否真的可以达到并朝着它努力。 “我们习惯了生活在高度结构化的环境中,这并不真正给我们创造性的空间,从我们学到的东西中解脱出来,想象一些彻底的新东西,然后我们可以弄清楚我们是否真的可以达到并朝着它努力。 当然,人工智能在这一点上起着作用,因为现在几乎没有人能想象没有人工智能的未来。 当然,人工智能在这一点上起着作用,因为现在几乎没有人能想象没有人工智能的未来。 在短期内,林丁格认为,社会凝聚力或保护儿童在线等基本问题是我们应该关注的非常重要的话题,与人工智能无关。 https://pod.co/orchestrate-all-the-things-podcast-connecting-the-dots-with-george-anadiotis/pragmatic-ai-adoption-from-futurism-to-futuring-featuring-elise-lindinger-superrr-co-founder?embedable=true 解决问题:我们可以提出什么样的保障措施?我们可以为数字系统、在线平台、我们周围的所有技术提出什么样的设计,使它们在我们的利益下工作?这些是非常低科技的问题,涉及人们和彼此的忽视。