本文作者:戴望舒

解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机

解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机摘要: 解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机这家创企旨在通过AI健康教练改变患者行为习惯,从而解决困扰美国1.27亿人口的慢性病危机,还...

聪明的东西

编译:陈俊达

编辑

知东网7月15日报道,上周,CEO山姆·(Sam)创立了AI医疗健康公司AI(简称),引起了广泛关注。这家初创公司旨在通过人工智能健康指导改变患者行为,解决困扰美国1.27亿人的慢性病危机,并已获得美国首富女性的投资。

医疗一直是美国社会关注的社会问题,也是今年美国大选的一个关键问题。低效和昂贵的医疗保健系统使许多美国人难以获得有效的医疗保健。作为当今AI行业的顶尖人物,阿尔特曼在这个时候选择进入AI医疗领域,自然引起了很多人的关注。

的另一位创始人 ·7月11日, 的创始人赫芬顿接受了《大西洋月刊》的采访,透露了有关该公司的更多细节。

两人表示,他们将专注于提供健康建议,避免AI目前不擅长的医疗诊断工作,未来可能会将健康信息整合到工作场景中。

然而,面对采访者的质疑,他们未能明确说明产品将采取何种形式,以及将采取哪些具体措施来确保用户数据的安全。

阿尔特曼在采访中还表示,人类与人工智能之间交流过程中的信息“或许”应该享有与律师与客户之间相同的保密条款,但他认为这应该由社会来决定。

值得一提的是,阿尔特曼的新公司能够获得的AI健康数据是极其私密的,具有显著的经济价值。根据这些信息,保险公司可以调整特定保单的价格或决定是否报销特定药物。在美国,最近也发生了此类信息泄露事件,导致医疗系统大面积关闭。

首先,重点是健康建议而不是医疗诊断,并且该模型的表现“足够好”。

这款AI健康产品最大的卖点是“高度个性化的AI健康教练”。通过收集有关用户睡眠、食物、运动、压力和社交互动的信息,结合医疗记录和行为改变领域的专业知识,它将为用户提供个性化和即时的健康建议。

阿尔特曼和赫芬顿认为,人工智能健康对于改善美国当今支离破碎的医疗保健系统具有重要意义,美国目前将其医疗保健系统90%用于治疗慢性病,并有望大大降低这一成本。

阿尔特曼和赫芬顿将这项技术与罗斯福的新政进行了比较,称“人工智能将成为更高效的医疗保健基础设施的一部分,将继续支持人们日常生活中的健康。

然而,人工智能在医疗行业的应用并不是什么新鲜事,人工智能在CT重建、药物开发、辅助诊断等方面都发挥了重要作用。

解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机

▲英伟达推出AI医疗产品Clara(来源:英伟达)。

目前,AI医疗应用主要针对具有专业知识的医生和研发人员,而不是这次针对的疾病患者。大多数患者没有足够的医学知识,无法对AI做出的健康建议或医疗诊断做出有效判断,AI产品也很难保证自己没有错。

在接受《大西洋月刊》采访时,阿尔特曼和赫芬顿回答了有关产品安全性的问题。他们认为,如果人工智能模型只关注“健康建议”而不是“医学诊断”,并且在同行评审的数据上进行训练,那么它目前的表现足以提供足够好的建议。

解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机

然而2023年澳门开奖结果,赫芬顿和阿尔特曼都无法回应产品最终呈现的确切形式。他们说该产品将作为一个应用程序推出,但赫芬顿也表示,该产品将以各种可能的型号提供,甚至通过Teams等应用程序集成到工作场景中。

其次解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机,收集数据不是问题,表示,用户愿意分享

这种超个性化的产品需要说服用户主动交出大量私人信息,以便人工智能能够拥有足够的信息来做出决策。在接受《大西洋月刊》采访时,阿尔特曼认为这将是一个巨大的挑战。

阿尔特曼分享说,他创办新公司的部分原因是很多人已经在诊断出医疗问题,他听说很多人已经接受了建议,接受了测试和治疗。他认为,用户实际上愿意与LLM分享一些非常详细和私密的信息。

《大西洋月刊》对这种做法感到震惊,因为返回的医疗建议可能会产生人工智能幻觉,并对患者的健康构成威胁。依赖这种虚假信息的患者也面临与专业医生发生冲突的高风险。

他还认为,医疗信息一旦泄露,可能会严重损害用户的个人权益。然而,阿尔特曼并不坚决地应对信息泄露的风险,认为这个问题应该留给社会。

他说,医生与患者、律师与客户之间的交流内容目前受到法律保护,人们“也许”在与人工智能的交流中也应该得到类似的保护,“也许社会将决定是否建立某种形式的人工智能特权。换句话说,他们可能不会积极促进类似的保护,而是将决定权留给社会。

但是,保护健康数据的需求已经达到了紧迫的程度。就在今年2月,隶属于美国保险集团联合健康集团( Group)的美国健康科技巨头遭受了广泛的勒索软件攻击,导致健康保险系统大面积关闭,美国近三分之一的医疗信息面临泄露的风险。

数据保护方面的记录并不完美。2023年初,公司内部系统遭到网络攻击,公司员工讨论先进AI系统的聊天记录被泄露。

此外,根据年初科技媒体的报道,出现了严重的信息泄露事件。当时网页出现了一些小故障,导致一些用户的对话标题出现在其他聊天框中,一些用户的身份信息和银行卡信息也被泄露。

尽管如此,阿尔特曼在这次采访中仍然呼吁社会给予他们“信任”,这与他在 2023 年彭博科技峰会上呼吁所有人不要信任他个人的言论截然相反。

解构管家婆正版 今晚,OpenAI CEO 创办 AI 医疗健康公司,解决美国慢性病危机

▲在2023年彭博科技峰会上(来源:彭博社)。

阿尔特曼认为澳门一肖一码必中一肖一码,人们普遍希望通过人工智能技术改善健康,而这是为数不多的人工智能可以用来改变世界的应用领域之一。他补充说,要使人工智能能够改善人类健康,“需要一定的信心”,这意味着人们必须相信新公司会负责任地做到这一点。

在《时代》杂志的一篇合著文章中,阿尔特曼和赫芬顿详细描述了这些“信念”。他们认为,要实现“人工智能驱动的行为改变”并扭转慢性病的日益蔓延,他们需要在三个主要领域获得信任。

一方面,政策制定者认为他们需要创造一个“促进人工智能创新的监管环境”。医疗保健从业者还需要信任人工智能工具,将人工智能技术整合到他们的实践中。最后,个人还需要相信人工智能能够负责任地处理他们的私人数据。对于一家还没有任何产品的公司来说,这是一个很大的要求,也没有承诺将采取哪些具体的安全措施。

结论:现在把健康交给人工智能可能还为时过早,人工智能不应该成为一种信仰游戏

在谈到AI健康产品的实施时,和在《时代》杂志上合著的文章中描述了以下场景:“AI健康教练会给大家非常精确的建议:下午用水和柠檬代替第三杯苏打水;下午3:15接孩子放学后,和孩子一起散步10分钟;“这位AI健康教练最终会改变一些人顽固的坏习惯,最终改善人类的整体健康,延长人类的寿命。

然而,人们生活中的“不健康”行为是个人习惯问题还是更广泛的社会问题?我们应该将慢性病危机留给个人和人工智能,还是应该通过政府和医疗机构的研究和干预来系统地预防它?这些是人们在所谓的人工智能医疗基础设施成为现实之前需要考虑的问题。

在采访中,阿尔特曼谈到了AI健康愿景的实现,在一定程度上需要人们的信念,但在AI和医疗这样影响深远的技术领域,我们真正需要的可能不是这样的信念游戏,而是可验证和可解释的技术。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,24人围观)参与讨论

还没有评论,来说两句吧...