口袋妖怪-混乱世界 口袋妖怪混乱世界作弊版( 七 )


最后,输出层的1被对应的“模式B”点火 。?
所以,“大恶魔”识别出图像为数字1 。?
在上面的例子里,AI可以精确地识别出0和1,但它并不懂0和1,它的眼里只有像素 。
可这么说,似乎过于拟人化了 。人类又如何懂0和1呢?
人类不也是通过双眼输入,通过迄今仍是宇宙间最大谜团的大脑神经元网络(更加复杂、强大且节能的隐藏层)提取特征,然后通过大脑的某个部位再进行自我解释的吗?
辛顿曾在采访中提及,认知科学领域两个学派关于“大脑处理视觉图像”的不同理念:?????
一派认为,当大脑处理视觉图像时,你拥有的是一组正在移动的像素 。如同上面的演示;
另一学派偏向于老派的人工智能,认为是分层、结构性的描述,脑内处理的是符号结构 。
辛顿自己则认为以上两派都不对,“实际上大脑内部是多个神经活动的大向量 。”而符号只是存在于外部世界 。
不管怎样,神经网络的模型有用,并且非常有用 。?????
不愿意和外行分享专业话题的辛顿,用如下这段话生动介绍了“神经网络”:
首先是相对简单的处理元素,也就是松散的神经元模型 。然后神经元会连接起来,每一个连接都有其权值,这种权值通过学习可以改变 。神经元要做的事就是将连接的活动量与权值相乘,然后累加,再决定是否发送结果 。如果得到的数字足够大,就会发送一个结果 。如果数字是负的,就不会发送任何信息 。
你要做的事就是将无数的活动与无数的权重联系起来,然后搞清如何改变权重,那样就行了 。问题的关键就是如何改变权重 。
神经网络和深度学习经历了并不算短暂的黑暗期 。
从上世纪80年代开始的整整30年间,只有很少一部分相关研究者义无反顾地投身其间,他们饱受怀疑,也几乎拿不到科研经费 。
也许是由于这个原因,深度学习三巨头辛顿(Hinton)、本吉奥(Bengio)、杨立昆(LeCun)似乎都和加拿大有些关系,他们退守在那里研究、教学、读书 。这倒是很符合那个“傻国家”的气质 。
一个让人“心酸”的细节是,2012年辛顿带着学生在ImageNet 图像识别比赛上拿了冠军,商业公司蜂拥而至 。辛顿教授开出的商业报价,只是区区一百万美元 。(后来谷歌以4400万美元“中标” 。)
“老派”AI,使用明确的一步步指令指引计算机,而深度学习则使用学习算法从数据中提取输入数据与期望输出的关联模式,正如上一节的演示 。
众所周知,漫漫长夜之后,随着人类计算机算力和数据的指数级增长,深度学习一飞冲天,从阿尔法狗一战封神,再到ChatGPT征服全球 。????
为什么是Open AI,而不是DeepMInd?我对此略有好奇 。
OpenAI的联合创始人兼首席科学家伊利亚·萨特斯基弗,是辛顿在多伦多大学带的学生 。
他似乎延续了辛顿对深度学习的信仰,并且勇于全力下注 。????
辛顿认为“深度学习足以复制人类所有的智力”,将无所不能,只要有更多概念上的突破 。例如“transformers”利用向量来表示词义的概念性突破 。
此外,还要大幅度增加规模,包括神经网络规模和数据规模 。例如,人脑大约有100万亿个参数,是真正的巨大模型 。而GPT-3有1750亿个参数,约比大脑小一千倍 。
神经网络模仿了人类的优势:处理有大量参数的少量数据 。但人类在这方面做得更好,而且节能许多倍 。
先行一步的DeepMInd,其发展方向和速度,除了陷入与谷歌的“商业VS科研”的两难纠缠,还不可避免地受到哈萨比斯的AI哲学观的影响 。
哈萨比斯认为不管是ChatGPT,还是自家的Gopher,尽管可以帮你写作,为你绘画,“有一些令人印象深刻的模仿”,但AI“仍然不能真正理解它在说什么” 。


特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。