萍聚社区-德国热线-德国实用信息网

 找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 182|回复: 0

[计算机] AI的“黑箱”与“涌现”

[复制链接]
发表于 2023-11-23 23:15 | 显示全部楼层 |阅读模式
作者:齐码蓝
受老师们常提的“黑箱”(或者“暗箱”)与“涌现”的启发,仅以此文献给我一样对AI半生不熟的读者,全文1万字左右,大概需要20~25分钟。

人工智能(Artificial Intelligence,简称 AI)作为一种模拟人类智能的技术,一直是学术界和工业界关注的焦点。随着计算机技术和数据科学的发展,AI 技术也在不断地取得突破。

它不仅重塑了我们的工作方式,还深刻影响着我们的日常生活。从简单的语音助手到复杂的数据分析系统,AI的应用已经渗透到各个角落。这场技术革命的核心,在于机器的能力超越了单纯的数据处理,它们现在能够“学习”和“进化”,以前所未有的方式解决问题。

AI的历史可以追溯到上个世纪,当时它还只是科幻小说中的幻想。然而,随着时间的推移,这一领域经历了翻天覆地的变化。从早期的符号逻辑处理到今天的深度学习,AI的进步不仅仅是技术层面的;它是一场关于理解智能本质和模拟人类认知过程的哲学探索。每一个技术的突破,不只是算法和计算能力的提升,更是对人类智能理解的一次深化。

随着时间的推移,AI的应用已经从理论研究扩展到实际应用。在医疗、金融、教育、娱乐等行业中,AI正在打开新的可能性,解决曾经认为不可能解决的问题。这一切的背后,是一个关于人类与机器如何共同塑造未来的故事。

本文将带您走进AI的世界,探索它的历史、发展、以及对未来社会的影响。我们将一起见证这个由数据和算法驱动的新时代,探讨人工智能如何在不断进化中重塑我们的世界。带你领略 AI 的“黑箱”与“涌现”,探索 AI 技术的发展历程、核心算法以及应用实例。

近几年随着DeepMind的AlphaGo,AlphaFold纷至沓来,到今天ChatGPT从GPT2,GPT3, GPT3.5turbo到GPT4的爆火,AI浪潮席卷而来,各行各业都趋之若鹜,各种应用,代理,甚至黑市都无比兴旺,一时间病毒、战争、游戏推动历史文化进程的三巨头都暗然失色。

AI 浪潮已至


2023 年,是 AI 发展的又一个关键节点。在这个时间点上,我们已经可以看到 AI 技术在各个领域的应用和影响。例如,在医疗领域,AI 技术可以帮助医生进行疾病诊断、制定治疗方案和提高医疗效率等;在金融领域,AI 技术可以帮助银行、证券公司等机构进行风险管理、投资决策等;在制造业,AI 技术可以帮助企业进行产品设计、生产流程优化等。此外,AI 技术还被广泛应用于教育、文化、娱乐等领域,改变了人们的生活方式和工作模式。

在这个过程中,一些关键技术的出现和发展起到了重要的推动作用。例如,深度学习(Deep Learning)技术的出现使得机器学习能够处理大规模的数据和复杂的任务,从而推动了 AI 技术的发展。强化学习(Reinforcement Learning)技术的出现则使得 AI 系统能够自主地学习和优化行为,从而提高了 AI 系统的智能水平。

百年来 AI 的发展



20世纪40年代至50年代:AI的孕育期

    沃伦·麦卡洛克和沃尔特·皮茨(1943年):这两位科学家提出了第一个神经网络模型,被称为“麦卡洛克-皮茨神经元”。这个模型虽然简单,但它启发了后来的研究者探索如何利用电子设备模拟人脑功能。

    阿兰·图灵(1950年):图灵提出了著名的“图灵测试”,这是一个判断机器是否能展示智能行为的实验。在这个测试中,如果一台机器能够在与人类的对话中让人无法判断它不是人类,那么它就可以被认为是“智能”的。


20世纪50年代末至60年代初:AI的初步探索

    约翰·麦卡锡(1956年):他在达特茅斯会议上首次提出了“人工智能”这一术语。这次会议集结了当时的一些顶尖科学家,他们讨论了如何使机器使用语言、形成抽象概念以及自我改进等问题。

    艾伦·纽厄尔和赫伯特·西蒙(1956年):这两位研究者开发了逻辑理论家(Logic Theorist),被认为是第一个人工智能程序。这个程序能够解决数学定理,并且在1956年证明了几个数学定理。


20世纪60年代:符号主义与专家系统

    专家系统:在60年代后期,AI研究转向了专家系统的开发,这些系统能够模仿人类专家的决策过程。最著名的例子之一是迈斯(MYCIN),一个旨在诊断血液感染并推荐治疗的医学诊断系统。

20世纪80年代:AI的复兴,机器学习的兴起


    80年代见证了机器学习的初步兴起。这一时期,研究者开始探索如何使机器通过数据学习,而非仅仅依赖硬编码的规则。这一变化对AI的发展产生了重大影响。

神经网络的复兴
    虽然在早期有所探索,但直到1986年,当David Rumelhart、Geoffrey Hinton和Ronald Williams提出反向传播算法,神经网络才真正开始流行。这一算法使得多层神经网络的训练成为可能,为深度学习奠定了基础。
专家系统的成熟
    80年代,专家系统在商业领域获得了广泛的应用,特别是在医疗诊断、金融服务和石油勘探等领域。

20世纪90年代:互联网时代与AI的融合

大数据的兴起


    随着互联网的普及,大量的数据开始可用,这为AI提供了前所未有的训练资源。大数据的出现极大地推动了AI的发展,特别是在机器学习领域。

计算能力的飞跃
    随着计算硬件的发展,尤其是更快的CPU和后来的GPU,AI研究得到了显著加速。这一时期,更复杂的AI模型变得可行。

21世纪初:深度学习的崛起

深度学习革命
    2006年,Geoffrey Hinton和他的团队重新引入了深度神经网络的概念,并演示了它们在图像识别和语音识别等任务上的潜力。这标志着深度学习时代的开始。

大规模AI系统的出现

    随着技术的进步,如谷歌的AlphaGo和OpenAI的GPT系列,AI开始在更复杂的任务上展示其能力,包括下围棋和自然语言处理。
2010年代及以后:AI的普及和伦理考量

AI在日常生活中的普及
    人工智能开始被广泛应用于消费者产品,如智能手机的语音助手、推荐系统和自动驾驶汽车。
伦理和社会问题的关注
    随着AI技术的普及,其所带来的伦理和社会问题也越来越受到关注。数据隐私、算法偏见和自动化对就业的影响成为了热门话题。

如今,AI不仅是一个研究领域,更是一个影响深远的社会和技术现象,其未来的发展仍充满无限可能。

AI 的主要分支基础(学习)

1. 机器学习
机器学习是 AI 的一个重要分支,它是指通过对数据的学习和分析,来实现对未知数据的预测和分类等任务。机器学习的核心思想是通过对数据的特征提取和模型训练,来实现对数据的预测和分类等任务。

在机器学习中,常用的算法包括决策树、随机森林、支持向量机、朴素贝叶斯等。这些算法的原理和应用场景各不相同,但是它们都能够实现对数据的预测和分类等任务。

2. 深度学习
深度学习是一种基于神经网络的机器学习算法,它能够处理大规模的数据和复杂的任务,并且具有很强的泛化能力。深度学习的核心思想是通过对数据的特征提取和模型训练,来实现对数据的预测和分类等任务。

在深度学习中,常用的算法包括卷积神经网络、循环神经网络、生成对抗网络等。这些算法的原理和应用场景各不相同,但是它们都能够实现对数据的预测和分类等任务。

3. 强化学习
强化学习是一种基于奖励机制的机器学习算法,它能够让 AI 系统自主地学习和优化行为,从而提高 AI 系统的智能水平。强化学习的核心思想是通过对环境的观察和动作的选择,来最大化系统的奖励。

在强化学习中,常用的算法包括策略梯度算法、Q-learning 算法等。这些算法的原理和应用场景各不相同,但是它们都能够实现对环境的观察和动作的选择,从而最大化系统的奖励。

4. 迁移学习
迁移学习是一种将已有知识和经验应用到新任务中的机器学习算法,它能够提高模型的训练效率和泛化能力。迁移学习的核心思想是通过对已有任务的模型训练,来获取任务相关的知识和经验,并将其应用到新任务的模型训练中。

在迁移学习中,常用的算法包括预训练模型、对抗生成网络等。这些算法的原理和应用场景各不相同,但是它们都能够实现对已有任务的模型训练,并将其应用到新任务的模型训练中。

5. 联邦学习
联邦学习是一种在多个数据所有者之间进行数据共享和模型训练的机器学习算法,它能够在保证数据隐私的前提下,实现数据的联合分析和模型的协同训练。联邦学习的核心思想是通过在多个数据所有者之间进行加密通信和计算,来实现数据的共享和模型的训练。

在联邦学习中,常用的算法包括联邦平均算法、联邦随机森林算法等。这些算法的原理和应用场景各不相同,但是它们都能够在保证数据隐私的前提下,实现数据的联合分析和模型的协同训练。

AI的关键性算法
0x01. 卷积神经网络(CNN)

基本概念


    想象你在看一张复杂的图画,你的大脑会自动识别出图中的不同物体和形状。这就是CNN在做的事情:自动识别和理解图像中的模式。



  • 卷积操作类似于一个放大镜,可以表示为:


    ,其中 K是放大镜(卷积核),I 是图像,f(i, j) 是放大后看到的特征。
架构和特点


    层级结构:由卷积层、激活层(如ReLU)、池化层和全连接层组成,每层具有特定的功能,如特征提取和非线性引入。

    参数共享:卷积层中的卷积核在整个输入图像上共享参数,这降低了模型的复杂性和训练所需的计算资源。

应用领域


    广泛应用于图像识别、视频分析、医学图像处理等领域。

循环神经网络(RNN)与长短期记忆网络(LSTM)

基本概念


    想象一部电影的连续场景,每个场景都与前一个场景有关。RNN就像是处理这种连续场景的大脑,它记住之前发生的事情,并用这些信息来理解整个故事。

  • RNN的基本单元可以表示为:



    ,其中 h_t是当前场景的“思考”,x_t是新场景,W和 b 是大脑如何处理这些场景的方式,sigma是大脑如何决定反应的函数。

0x02. 循环神经网络(RNN)

架构和特点


    序列处理:专门设计用于处理序列数据,如时间序列或自然语言。

    隐藏状态:网络通过隐藏状态保持对先前输入的记忆,这使得网络能够利用序列中的上下文信息。
应用领域


    用于语言建模、文本生成、语音识别等领域。

长短期记忆网络(LSTM)


    LSTM是RNN的一个升级版,它在记忆长篇故事时更加擅长,通过特殊的“门”机制来决定哪些信息重要,哪些可以忘记。

LSTM单元:包含遗忘门、输入门、输出门的复合公式。
架构和特点


    门控制机制:包含遗忘门、输入门和输出门,这些门控制着网络状态的更新,从而有效处理长序列数据中的长期依赖问题。

    记忆单元:LSTM的设计允许网络长时间保留信息,避免了传统RNN中的梯度消失问题。

应用领域


    适用于需要长期记忆和复杂依赖关系的任务,如机器翻译、语音识别和复杂序列预测。

0x03. 深度神经网络(DNN)

基本概念


    定义:深度神经网络(DNN)是一种由多层(通常超过两层)的神经元构成的网络。这些网络可以学习数据的高级特征,通常用于复杂的模式识别任务。

    工作原理:DNN通过多层非线性处理单元来提取和变换数据。每一层都从前一层学到的特征中进一步提取更高级的特征。

    前向传播:一个简单的DNN层的前向传播可以用公式

    表示,其中a^{[l]} 是第 l 层的激活,W^{[l]}和 b^{[l]}是权重和偏置,sigma是激活函数。



架构和特点


    层次结构:DNN包括输入层、隐藏层(一个或多个)和输出层。隐藏层的数量和每层的神经元数量可以根据具体任务进行调整。

    激活函数:DNN使用激活函数(如ReLU、sigmoid或tanh)来引入非线性,这是捕捉复杂模式的关键。

    训练过程:训练DNN涉及使用大量数据来调整网络参数(权重和偏置)。这通常通过反向传播和梯度下降等优化算法实现。

应用领域


    DNN在许多领域都有应用,包括语音识别、图像分类、自然语言处理等。它们能够处理大量复杂的数据,并从中提取有意义的模式。

DNN作为深度学习的基石,对于理解当前的AI技术是至关重要的。它们的强大能力在于可以通过学习数据中的复杂结构来进行高度精确的预测或分类。
0x04. 生成对抗网络 (GAN)

基本概念

生成对抗网络是一种深度学习模型,由生成器(Generator)和判别器(Discriminator)组成。生成器尝试生成与真实数据相似的数据样本,而判别器则试图区分生成的样本和真实数据。这两个部分通过博弈过程相互对抗,使得生成器逐渐学会生成逼真的数据。

GAN的损失函数通常由两部分组成:

    生成器损失(Generator Loss):衡量生成器生成的样本与真实数据之间的差距,通常使用交叉熵损失或均方误差损失。

    判别器损失(Discriminator Loss):衡量判别器正确识别生成样本和真实数据的能力,也使用交叉熵损失。

GAN的总损失函数为:



架构和特点

GAN的算法架构包括生成器和判别器两个主要组件。生成器通常是一个神经网络,它将随机噪声向量(通常服从正态分布)映射成数据样本。判别器也是一个神经网络,用于区分生成的样本和真实数据。


    GAN是一种强大的生成模型,能够生成高质量的图像、文本和音频等数据。

    GAN的训练通常是不稳定的,需要谨慎的超参数选择和技巧。

    GAN的应用广泛,包括图像生成、超分辨率、风格迁移等。

应用领域


    图像生成:GAN在图像生成领域取得了巨大成功,如生成逼真的人脸图像。

    超分辨率:通过GAN可以将低分辨率图像转换为高分辨率图像。

    风格迁移:GAN可用于将图像转换为不同的艺术风格。

    生成文本:GAN可用于生成自然语言文本,如对话生成和文章摘要。

0x05. 稳定扩散Stable Diffusion

基本概念

Stable Diffusion是一种生成对抗网络的训练方法,旨在提高生成样本的质量和稳定性。它通过引入稳定性增强项,使生成器更好地控制样本的多样性和质量。

Stable Diffusion引入了稳定性增强项,其中 �β 是一个控制稳定性的超参数,�η 是噪声。



架构和特点

Stable Diffusion算法与传统GAN的架构类似,但在损失函数中引入了稳定性增强项。

    Stable Diffusion改善了生成器的样本质量和稳定性。

    通过控制超参数 �β 可以平衡多样性和质量。

应用领域


    图像生成:Stable Diffusion可用于生成高质量的图像,如艺术创作和图像编辑。

这些算法对于生成高质量、多样性的数据样本在图像生成和其他领域具有重要应用。

min⁡�max⁡��(�,�)=��∼�data(�)[log⁡�(�)]+��∼��(�)[log⁡(1−�(�(�)))]−���∼��(�)[(∥∇�~�(�~)∥2−1)2]
0x06. 注意力模型与Transformer

基本概念



  • Transformer模型的自注意力机制可以表示为:

    ,这就像大脑在决定哪些信息是关键时的工作方式,其中 Q, K, V分别代表不同的思考角度。
    Transformer模型是一种先进的机器学习模型,特别擅长处理大量数据。它就像是一个超级高效的图书管理员,能够快速找到你需要的信息并理解它的含义。
架构和特点


    自注意力机制:通过自注意力层,模型能够关注输入序列中不同部分的相关性。

    并行处理:与RNN不同,Transformer可以并行处理序列数据,提高了训练效率。
应用领域


    主要用于自然语言处理任务,如机器翻译、文本摘要、问答系统等。
计算机视觉(CV)


    就像人类可以辨认朋友的脸或者识别路标,CV使计算机能够理解和处理图像和视频。
自然语言处理(NLP)


    NLP让计算机能够“理解”和生成类似人类的语言,就像它们能读懂一本书或者写一封邮件。




AI大片

IBM的深蓝 - 棋局开局

在AI历史的长河中,IBM的深蓝(Deep Blue)是一颗璀璨的明星。1997年,这款AI驱动的超级计算机在国际象棋中战胜了世界冠军加里·卡斯帕罗夫。想象一下,一台机器在人类智力的巅峰竞技中取得胜利,这不仅是技术的胜利,更是人类对智能极限的一次新的探索。

IBM的沃森 - 智能问答的先锋

沃森(Watson)则在2011年的《危险边缘》(Jeopardy!)电视节目中大放异彩,击败了两位人类冠军。这不仅仅是一个娱乐事件,更是人工智能在理解自然语言、处理复杂问题和进行快速学习方面的重大进步。想象一下,一台机器能够理解复杂的语言提示,并快速准确地回答问题,这在AI领域是一次重要的突破。

DeepMind的AlphaGo - 智慧的新高度

想象一下,一个机器学习算法在古老的围棋游戏中击败了世界顶尖的高手。这就是DeepMind的AlphaGo做到的。AlphaGo是一个深度学习程序,它像一位聪明绝顶的棋手,不仅学习了人类的围棋知识,还发现了全新的策略。其背后的算法是一种称为深度强化学习的技术,这就好比一个小孩通过不断的尝试和错误,最终学会了骑自行车。AlphaGo的胜利不仅是技术的突破,更是人工智能发展的一个里程碑。

DeepMind的AlphaFold - 生物学的革命DeepMind的AlphaFold项目标志着AI在生物学领域的重大突破。通过预测蛋白质结构,AlphaFold帮助科学家们解锁了生物分子的秘密,这对药物发现和疾病治疗有着深远的影响。想象一个能解读自然之谜的AI,AlphaFold就在做这样的事情。
Google - BERT的语言理解突破

Google的BERT模型则像是一个语言天才,它能够深刻理解人类的语言。BERT运用了一种叫做“Transformer”的架构,这就像是有一群超级聪明的翻译官,他们能够同时听懂多人谈话,并理解每个人话语的深层含义。BERT的出现极大地改善了搜索引擎的效果,使其能够更准确地理解用户的查询意图。
Meta - 虚拟世界的构建者

Meta(前身为Facebook)在AI领域也取得了显著成就,特别是在增强现实和虚拟现实技术中。他们的AI像是一个梦境制造者,能够创造出逼真的虚拟世界。利用先进的计算机视觉和深度学习技术,Meta的AI能够理解和模拟真实世界的复杂性,为用户提供沉浸式的体验。Meta的AI探索不仅限于社交媒体。他们在虚拟现实(VR)和增强现实(AR)中的研究,正在开创一个全新的数字互动时代。Meta的AI就像是一个虚拟世界的建筑师,创造出令人惊叹的虚拟环境和体验。
OpenAI - GPT文字的魔法师

最后,OpenAI的GPT系列则如同一位文学家和作家,它能够撰写诗歌、文章,甚至能与人进行有趣的对话。GPT利用的是一种叫做“自回归语言模型”的技术,这好比有一个巨大的图书馆,在那里,GPT阅读了成千上万本书籍,学习了人类的语言和知识。通过这些知识,GPT能够生成流畅自然、有时甚至富有创意的文本。
一部正在酝酿已久的AI大片即将上映!


AI 的软件系统架构通常包括以下几个层次:

1. 数据层:用于存储和管理数据,包括数据预处理、清洗、标注等。

2. 算法层:用于实现各种机器学习算法和深度学习模型,包括训练和推理。

3. 应用层:用于将算法和模型应用于实际业务场景,例如图像识别、自然语言处理、语音识别等。
软件系统架构的发展历程:


    传统机器学习:早期的AI应用主要基于传统机器学习算法,通常是通过手工提取特征并使用经典的机器学习模型进行训练和推理。

    深度学习:随着深度学习的兴起,神经网络架构变得更深更复杂。这些模型包括卷积神经网络(CNN)和循环神经网络(RNN)等,需要更多的计算资源。

    大规模预训练模型:近年来,大规模预训练模型如GPT(生成式预训练模型)变得流行。这些模型需要大量的参数和计算能力,以获得更好的性能。

硬件支持方面,AI 通常需要高性能的计算设备,例如 GPU、TPU 等,以加速训练和推理过程。此外,还需要大量的存储设备来存储数据和模型。
AI硬件支持的发展历程:


    传统计算机:早期的AI应用主要依赖于传统计算机,如CPU。这些计算机不够强大,难以满足复杂的AI任务需求。

    图形处理单元 (GPU):随着GPU的发展,特别是nVIDIA的GPU,AI应用得以加速。GPU在并行计算方面表现出色,适用于深度学习中的大规模矩阵运算,使得训练深度神经网络变得更加高效。

    专用硬件加速器:AI领域涌现了一些专用硬件加速器,如Google的TPU(Tensor Processing Unit)和NVIDIA的TPU,这些加速器专门设计用于深度学习任务,提供了更高的性能和能效。

    分布式计算:AI模型的规模不断增大,需要更多的计算资源。因此,云计算和分布式计算变得至关重要,允许大规模的训练和推理。


例如OpenAI GPT-4和GPT-5将继续依赖于大规模的硬件支持,特别是nVIDIA的GPU和分布式计算资源。以下是可能的硬件支持条件:

    nVIDIA的GPU:这些模型将依赖于高性能的nVIDIA GPU,如Ampere架构的GPU(如NVIDIA A100),GPT-4 需要大约 10000 个 NVIDIA A100 GPU 来训练,而 GPT-5 需要更多的 GPU。以加速训练和推理。模型的规模将比之前更大,因此需要更多的GPU资源。

    专用硬件加速器:如果有适用的专用硬件加速器,OpenAI可能会考虑采用,以提高性能和能效。

    分布式计算:模型训练将依赖于分布式计算集群,以同时处理大规模的数据集和模型参数。这可能包括多台服务器和存储集群。
基础设施示意图:

    +---------------------------------------------------+    |              多台服务器集群和存储                   |    | +-----------------------------------------------+ |    | |              分布式计算资源                     | |    | | +---+    +---+    +---+    +---+    +---+     | |    | | |GPU|    |GPU|    |GPU|    |GPU|    |GPU|     | |    | | +---+    +---+    +---+    +---+    +---+     | |    | |                                               | |    | |              模型训练与推理                     | |    | +-----------------------------------------------+ |    |                                                   |    |          OpenAI GPT-4/GPT-5 模型                  |    +---------------------------------------------------+



(图片来自于量子位)

每问ChatGPT 5-50个问题,就要消耗约500毫升的水。

AI应用实例简单实操

AI如此强大,那我们如何使用或操作它呢?这里我给一些简单的指引,或许能给你提供少许帮助,或许你不至于这么怯场。
    譬如我们用GPT构建一个项目式学习(PBL)中的应用

    (除了使用ChatGPT,我们也可以用GPT API的方式)


应用场景:

    生成创意项目提案

    自动撰写教学材料

    互动式学生问答


操作步骤:

    注册并获取API密钥:访问OpenAI官网,注册账户并获取API密钥。

    安装Python库:在命令行运行 pip install openai。

    编写Python脚本:使用以下代码生成项目提案。
import openai
defgenerate_project_ideas(prompt):    openai.api_key = 'YOUR_API_KEY'  # 这里输入你的API密钥    response = openai.Completion.create(      engine="text-davinci-002",  # 这里选用模型引擎      prompt=prompt,      max_tokens=100    )return response.choices[0].text.strip()
# 使用示例, 引号内输入你的想法idea = generate_project_ideas("Create a project proposal about renewable energy for middle school students") print(idea)

)

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

x
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

手机版|Archiver|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网 |网站地图

GMT+2, 2024-5-5 02:07 , Processed in 5.853661 second(s), 17 queries , MemCached On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表