什么是生成式 AI
生成式 AI 是一种机器学习模型。它并非人类,无法独立思考或感受情绪。不过,它十分擅长找寻规律。
过去,AI 被用来理解和推荐信息。现在,生成式 AI 还可以帮助我们创作全新的内容,例如图片、音乐和代码。
机器学习模型(包括生成式 AI 在内)是通过一个观察和模式匹配的过程进行学习的,这个过程称为“训练”。若要让模型理解什么是运动鞋,需要使用数百万张运动鞋的照片来训练模型。随着时间推移,模型会认识到运动鞋是人类脚上穿着的有鞋带、鞋底和徽标的物品。
通过训练,模型可以完成以下流程:
- 接收“生成带山羊饰物的运动鞋的图片”这样的输入内容。
- 将它学到的关于运动鞋、山羊和饰物的知识关联起来。
- 生成一张图片,即使它以前未曾见过这样的图片。
生成式 AI 和大语言模型 (LLM) 属于同一类技术。生成式 AI 可以基于任何类型的数据进行训练,而 LLM 则使用字词作为训练数据的主要来源。
采用 LLM 技术的产品(例如 Bard 和生成式搜索体验)可以根据你的问题以及截至目前生成的所有文本,预测后续可能出现的字词。它们具有灵活性,能够根据训练中学到的规律选择后续可能出现的字词,从而生成富有创意的回答。
比如,你要求大语言模型将词组“哈利·[空白]”补全,模型可能会预测下一个词是“斯泰尔斯”或“波特”。
如何使用生成式 AI
重要提示:采用生成式 AI 技术的 Google 产品可以帮助你开启创意过程,但并不会为你完成所有工作,也不能自行创作。
你可以通过以下 3 种方式使用生成式 AI:
- 提出创意点子,让它来一场头脑风暴。例如,让它帮你为喜爱的电影撰写前传。
- 问它你觉得无解的问题。例如,“先有鸡还是先有蛋?”
- 用它获得额外助力。让它为你写的故事想一个标题,或者让它帮你识别图片中的动物或昆虫的种类。
当您使用生成式 AI 探索、创造和学习新事物时,以负责任的方式使用它非常重要。
生成式 AI 尚处于实验阶段,是一项仍在发展中的技术,因此难免会出错:
- 它可能会杜撰信息。生成式 AI 虚构回答的行为被称为“幻觉”。之所以会产生幻觉,是因为 LLM 不像 Google 搜索那样从网络获取信息。它完全不会收集信息,而是根据用户输入的内容预测后续字词。
- 例如,如果你询问“谁会赢得 2032 年布里斯班夏季奥运会女子体操比赛的冠军?”,即使这项赛事还没有举行,你也能得到回答。
- 它可能会误解问题。有时,生成式 AI 产品会误解语言,扭曲其含义。
- 例如,你可能想详细了解相声等曲艺节目中的“包袱”,也就是笑料。如果你询问有关“包袱”的信息,生成式 AI 可能会向你介绍外包有布的包裹,因为这是“包袱”这个词最原本的意思。
请批判性地看待生成式 AI 工具给你的回答。使用 Google 和其他资源来查证获得的信息是否属实。
如果你遇到任何有误的回答,请报告给我们。我们的许多生成式 AI 产品都提供了报告工具。你的反馈有助于我们优化模型,从而为所有用户提供更好的生成式 AI 体验。
Google 如何开发 AI
为了确保我们打造的工具能让世界变得更美好,我们在 2018 年制定了一套 AI 原则。这些原则阐明了我们在 AI 开发过程中秉持的目标:开发大胆创新的技术,以负责任的方式应对社会所面临的一些重大难题。
例如,我们使用 AI 来:
- 支持气候变化控制举措,比如减少交通堵塞以降低汽车尾气排放量
- 预测或监控自然灾害,比如预测 20 多个国家/地区的洪水情况,以及跟踪野火的实时火势边界
- 支持医疗保健创新,比如降低肺结核筛查的门槛,以及协助在早期发现乳腺癌
我们的原则还列出了我们的 AI 产品不会涉足的领域,例如可能造成整体伤害或违反国际法律和人权的技术。
发表回复