下图为,小鼠和人类皮层细胞在培养皿中的区别(50μm)。
其中,蓝色DAPI代表染色所有细胞,绿色NeuN显示是神经元,微管蛋白 (BIII) 标记是轴突,MAP标记的是树突。
可以看到,小鼠皮层细胞(A) 可以在营养丰富的培养基中生长并维持数月,并形成了复杂的形态,有大量的树突和轴突连接。
而人类诱导多能干细胞 (hiPSC) 分化为单层活性异质皮层神经元之后,这些神经元也能显示出成熟的功能特性,并可以与作为支持的神经胶质细胞形成密集的连接。
那么,细胞培养出来了,如何让其打乒乓球呢?
显然,我们需要一套精密的装置。
装置中央圆形的凹槽,便是放置脑细胞和电极的地方。
Cortical Labs的研究人员采用的是来自瑞士一家公司Maxwell Biosystems提供的MaxOne多电极阵列进行实验。
MaxOne是一个高分辨率的电生理学平台,26000个铂金电极排列在8mm*8mm的面积上,最高分辨率可达220*120。
该系统基于互补的氧化物半导体(CMOS)技术,可以记录多达1024个通道数和多达32个单元的刺激。
那神经元如何主动推理,从而完成游戏的呢?
为了教会DishBrain打乒乓球,研究小组让这片神经元去玩了单人乒乓球游戏。
研究人员利用电信号刺激电极阵列上的神经元,并将其活动状态记录下来。
其中,电信号发送不同阵列区域代表乒乓球的位置,盘子两侧的微电极会指示球是在球拍的左侧还是右侧,而信号频率则反映了球的距离。
而在电极阵列的上半部分的神经元,负责感知乒乓球的位置,下半部分的神经元分左右两块,负责输出乒乓球拍上下移动的距离。
然后,DishBrain就可以产生电信号去移动球拍接球了。
但是开始,它们的表现很差劲。
为了玩好游戏,神经元需要反馈。因此团队开发了一种反馈软件,可以在DishBrain错过球时通过电极对它们进行批评。
为了优化误差,Cortical Labs团队主要使用了最小化变分自由能的预测编码公式,又名卡尔曼滤波器。
这就使得系统在打乒乓球时得到了改进,在短短五分钟内,DishBrian就学会根据球的位置来回移动球拍了。
诶,好像DeepMind的AI也玩过这个游戏?没错,2013年,DeepMind首次通过Atari游戏演示了其人工智能强化学习算法的性能。
目前,DishBrain打游戏的效果还是不如DeepMind自家发展了这么多年的强化学习算法。但是AI玩这个得90分钟才学得会,而这层脑细胞可是仅仅用了5分钟就玩得有模有样了。
这样一来,利用活体大脑神经元的计算能力来创造合成生物智能 (SBI)也就完成了。