- 生成式AI教程
- 生成式AI - 首页
- 生成式AI基础
- 生成式AI基础
- 生成式AI发展
- 机器学习与生成式AI
- 生成式AI模型
- 判别式模型与生成式模型
- 生成式AI模型的类型
- 概率分布
- 概率密度函数
- 最大似然估计
- 生成式AI网络
- GAN的工作原理?
- GAN - 架构
- 条件GAN
- StyleGAN和CycleGAN
- 训练GAN
- GAN的应用
- 生成式AI Transformer
- 生成式AI中的Transformer
- 生成式AI中Transformer的架构
- Transformer中的输入嵌入
- 多头注意力机制
- 位置编码
- 前馈神经网络
- Transformer中的残差连接
- 生成式AI自编码器
- 生成式AI中的自编码器
- 自编码器的类型和应用
- 使用Python实现自编码器
- 变分自编码器
- 生成式AI和ChatGPT
- 一个生成式AI模型
- 生成式AI杂项
- 生成式AI在制造业中的应用
- 生成式AI在开发者中的应用
- 生成式AI在网络安全中的应用
- 生成式AI在软件测试中的应用
- 生成式AI在营销中的应用
- 生成式AI在教育中的应用
- 生成式AI在医疗保健中的应用
- 生成式AI在学生中的应用
- 生成式AI在工业中的应用
- 生成式AI在电影中的应用
- 生成式AI在音乐中的应用
- 生成式AI在烹饪中的应用
- 生成式AI在媒体中的应用
- 生成式AI在通信中的应用
- 生成式AI在摄影中的应用
- 生成式AI资源
- 生成式AI - 有用资源
- 生成式AI - 讨论
生成式AI的演变
许多年前,我们智能手机的预测文本功能让我们惊叹不已。然后Gmail通过智能回复功能简化了我们的生活,该功能利用机器学习算法为我们提供单句回复。这些基本的创新是生成式AI初始形式的例子。但是,从那时起,随着生成式AI的进步,我们已经走了很长一段路。
生成式AI的演变是一个引人入胜的故事。让我们看看生成式AI是如何发展并改变AI领域的格局的——
早期AI探索 (1950s - 1980s)
20世纪50年代是AI早期思想出现的时期。1950年,艾伦·图灵在他发表的论文《计算机械与智能》中探讨了AI的数学可能性,并提出了一个问题:为什么机器不能像人一样思考。
然后在1952年,英国计算机科学家**克里斯托弗·斯特雷奇**为曼彻斯特Mark 1计算机创建了一个程序,该程序生成了一封模拟的爱情信。这个程序是第一个文本生成软件。
1966年,麻省理工学院教授**约瑟夫·魏泽鲍姆**创建了第一个聊天机器人,名为**ELIZA**。它是一个早期的自然语言处理程序,模拟与心理治疗师的对话。
1968年,麻省理工学院的斯坦福大学学生**特里·维诺格拉德**创建了一个名为**SHRDLU**的自然语言处理计算机程序。它实际上是演示了一个能够理解和响应受限块世界环境中命令的系统。
**迈克尔·托伊**和**格伦·维奇曼**在1980年开发了一个基于Unix的视频游戏,名为Rogue。它是第一个实现过程生成的动态生成新游戏关卡的游戏之一。
神经网络的复兴 (1980s - 2010s)
1985年,著名的计算机科学家和哲学家**朱迪亚·珀尔**介绍了贝叶斯网络,也称为信念网络或因果网络。贝叶斯网络在生成式AI中建立了建模概念。
**迈克尔·乔丹**在1986年发表的论文“序列顺序:一种并行分布式处理方法”为使用循环神经网络(RNN)奠定了基础。
1989年,**杨立昆**和**约书亚·本吉奥**展示了卷积神经网络(CNN)在图像识别中的应用。
2003年,蒙特利尔大学的研究人员发表了一篇题为“一种神经概率语言模型”的论文。这篇论文提出了一种使用前馈神经网络进行语言建模的技术。
2006年,斯坦福大学教授**李飞飞**创建了ImageNet数据库,为视觉目标识别奠定了基础。
深度学习的统治与Transformer革命 (2010s - 2020s)
2011年,苹果发布了**Siri**,这是一个基于深度学习技术的文本转语音语音助手。
2012年,**Alex Krizhevsky**引入了**AlexNet CNN架构**。这确实是一种自动训练神经网络的创新方法,它利用了最近的GPU进步。
**伊恩·古德费洛**和他的同事在2014年开发了生成对抗网络(GAN)。同年,**马克斯·韦林**和**迪德里克·金马**开发了**变分自编码器**(VAE)来生成文本、图像和视频。
2015年,斯坦福大学的一组研究人员发表了一篇题为“使用非平衡热力学进行深度无监督学习”的论文。他们介绍了一种扩散模型技术,它提供了一种反向工程将噪声添加到图像的过程的方法。
2017年,谷歌的研究人员介绍了Transformer的概念。这项技术自动将未标记的文本解析为**大型语言模型(LLM)**。
2018年,谷歌将Transformer应用于BERT(来自Transformer的双向编码器表示)。同年,OpenAI推出了基于Transformer的语言模型**GPT-1**。
专门的生成模型 (2020s - 至今)
2020年,OpenAI发布了其生成预训练Transformer的第三个迭代版本,即**GPT-3**。它是能够生成类似人类文本的最大语言模型之一。
次年,即2021年,OpenAI推出了**DALL-E**,它可以根据文本提示生成图像。2022年11月30日,OpenAI发布了**ChatGPT的网络预览版**。
Open AI于2023年发布了**GPT-4**。这家AI公司声称,“GPT-4可以更准确地解决具有挑战性的问题,这要归功于其更广泛的常识和更先进的推理能力。”2023年8月20日,OpenAI推出了DALL-E3。
2023年3月,谷歌发布了基于其**LaMDA**引擎的**Bard聊天服务**。但是,在2024年2月8日,**谷歌将Bard聊天机器人重新命名为Gemini**。