OpenAI的联合创始人兼
为什么是Open AI,而不是DeepMInd?我对此略有好奇。首席科学家伊利亚·萨特斯基弗,是辛顿在多伦多大学带的学生。 他似乎延续了辛顿对深度学习的信仰,并且勇于全力下注。 辛顿认为深度学习足以复制人类所有的智力,将无所不能,只要有更多概念上的突破。例如transformers利用向量来表示词义的概念性突破。
此外还要大幅度
增加规模,包括神经网络规模和数据规模。例如,人脑大 巴拉圭号码数据 约有万亿个参数,是真正的巨大模型。而GPT 有亿个参数,约比大脑小一千倍。 神经网络模仿了人类的优势:处理有大量参数的少量数据。但人类在这方面做得更好,而且节能许多倍。 先行一步的DeepMInd,其发展方向和速度,除了陷入与谷歌的商业VS科研的两难纠缠,还不可避免地受到哈萨比斯的AI哲学观的影响。
哈萨比斯认为不管是
ChatGPT,还是自家的Gopher,尽管可以帮 巴基斯坦电话号码列表 你写作,为你绘画,有一些令人印象深刻的模仿,但AI仍然不能真正理解它在说什么。 所以,他说: 这些 不是真正的意义上的 智能 。 哈萨比斯的老师,MIT的Poggio教授更尖锐地指出:深度学习有点像这个时代的炼金术,但是需要从炼金术转化为真正的化学。