你的位置: 首页 > 戚薇思 > > 大白话聊透人工智能

大白话聊透人工智能神经网络从模仿大脑到解决问题的全过程

如果你刷到过“AI写文案”“AI画插画”“AI预测天气”甚至听说AI能诊断疾病可能会好奇:这些“聪明”的能力到底从哪来?其实背后的核心技术之一就是“神经网络”。

但一提到“神经网络”很多人会想到复杂的公式、密密麻麻的节点图觉得这是程序员和数学家的专属知识。

其实完全不用怕——神经网络的本质就是模仿人类大脑“学习”的逻辑我们用生活里的小事就能把它讲明白。

接下来咱们从“它像什么”“怎么学东西”“能解决啥问题”一步步聊全程不用公式只说大白话。

一、先搞懂:神经网络到底在模仿大脑的什么? 要理解神经网络得先从它的“原型”——人类大脑说起。

你小时候学认“猫”的时候是怎么学会的?妈妈不会给你讲“猫有23对染色体”“猫的祖先是非洲野猫”而是指着图片或真实的猫说:“你看有四条腿、毛茸茸、会喵喵叫、有尖耳朵的就是猫。

” 你听多了、看多想下次见到一只从没见过的橘猫哪怕它比你之前见过的猫胖也能立刻认出“这是猫”。

这个过程里你的大脑在做什么?其实是大脑里的“神经细胞”(也叫神经元)在配合工作:眼睛先把“毛茸茸、尖耳朵”的信息传给大脑大脑里的神经元互相“商量”——“符合之前记的猫的特征所以是猫”最后告诉你答案。

而“神经网络”就是用电脑程序模仿这个过程。

它不是真的造出了“电子大脑”而是用代码搭建了一个“模拟神经元互相配合”的系统让这个系统像人一样通过“看例子、记规律”来学习最后自己解决问题。

咱们可以把神经网络拆成三个最核心的部分对应大脑认猫的过程: 1. “眼睛”:输入层——负责接收信息。

比如认猫时输入层就是“看”到的图片像素(比如这张图里哪些地方是黑色、哪些是黄色)或者“听”到的“喵喵”声; 2. “大脑里的神经元”:隐藏层——负责“商量”和“找规律”。

输入层把信息传过来后隐藏层会分析“这些像素里有没有尖耳朵的形状?有没有四条腿的轮廓?”; 3. “嘴巴说答案”:输出层——负责给出结果。

隐藏层分析完输出层就会告诉你“这是猫”“这不是猫”或者“这有90%的可能是猫”。

举个更具体的例子:你用手机扫二维码手机能识别出二维码里的链接。

这个过程里神经网络的“输入层”就是二维码的黑白格子信息“隐藏层”分析格子的排列规律“输出层”把规律转换成链接——是不是和大脑认猫的逻辑几乎一样? 简单说神经网络的核心不是“复杂的公式”而是“模仿人类从例子里学规律的习惯”。

它和我们小时候学数学、学骑车的逻辑相通只是把这个过程交给了电脑让电脑能更快地“学”、更准地“用”。

二、神经网络怎么“学习”?其实和你学骑自行车一样 知道了神经网络的基本结构接下来最关键的问题是:它怎么“学会”认猫、识别二维码甚至写文案的? 其实它的学习过程和你学骑自行车的过程几乎一模一样——先“试错”再“调整”直到熟练。

咱们拿“教神经网络认猫”这件事拆解成3步你就能彻底明白: 第一步:给神经网络“喂例子”——就像你学骑车时先看别人骑 你学骑车前可能会先看爸妈怎么蹬脚踏、怎么握车把、怎么平衡——这些“看”的过程就是在接收“正确的例子”。

神经网络学习也需要“正确的例子”我们叫它“训练数据”。

比如要教它认猫就得给它喂成千上万张图片每张图片都标注好“这是猫”“这不是猫”(比如狗、兔子、杯子的图片)。

这些“例子”要足够多、足够全。

就像你学骑车时不仅要看“在平地上骑”还要看“上坡怎么骑”“拐弯怎么骑”才能应对不同情况;神经网络也得看“橘猫、黑猫、布偶猫”“正面的猫、侧面的猫、趴着的猫”甚至“猫和狗一起出现的图片”才能避免“只认橘猫不认黑猫”的错误。

这里有个小误区:不是例子越多越好而是“有代表性”的例子越多越好。

比如你给神经网络喂10万张“猫在草地上”的图片却没给过“猫在沙发上”的图片它可能会误以为“只有在草地上的才是猫”——这就像你学骑车只在平地上练第一次遇到上坡就会慌是一个道理。

第二步:让神经网络“自己试”——就像你第一次骑车上路肯定会摔 看完别人骑车你总得自己上去试。

第一次骑车时你可能握不住车把蹬脚踏的节奏不对刚骑出去就摔了——这时候你知道“这么骑不行”。

神经网络也会“试错”。

当我们把第一批“猫的图片”喂给它后它不会立刻就认对而是会根据自己“初始的判断逻辑”(比如“只要有毛就是猫”)给出答案。

这时候它肯定会犯很多错:把带毛的狗当成猫把没毛的 Sphynx 猫当成“不是猫”。

这章没有结束请点击下一页继续阅读!。

本文地址大白话聊透人工智能神经网络从模仿大脑到解决问题的全过程来源 http://www.qiweisi.com

最新推荐

编辑推荐

热门小说