除此之外,现如今的神经交互系统,总归还是差了点意思,真正理想状态其实应该采用脑机交互技术。
脑机交互,顾名思义,就是大脑与机械的交互技术。
本质上这其实是神经交互技术更进一步的升级版本。
神经交互技术是截取大脑已经发出的神经信号,也能逆向传输一些简单的痛觉信号之类的。
这种模式用在机甲上非常合适,因为二代机甲普遍采用仿生机体,与人体结构近似,操作起来如臂使指。
但如果是用在无人机,天剑巡航导弹这种额外物体上就没那么好用了。
他们和躯体天差地别,还是外置物体,已经从大脑传出来的神经信号可不包含这些‘非人’物体的控制信号。
而之所以这种情况下还能利用神经交互去操控无人机,那是因为配备了相应的编码转译程序。
诸如斯坦集团第四代无人机矩阵系统,除去辅助控制复数无人机编队外,它真正的核心功能就是编码转译。
也就是将人体对某个细微部位的控制信号、比如手指,本来是控制手指往左滑动,但编码转译系统会将其‘翻译’,呈现在无人机上就成了往左转向等指令。
但这本质上终归还是指令,中间差了一层,而且获取无人机的各种信息也需要一个观察,思考的过程,再加上操作,其中实现并不算顺滑。
而脑机交互技术,则是更进一步,直接捕获脑部神经元产生的脑电信号。
人类无论是进行思考还是什么活动,都是神经元的活动,也就必然会产生脑电信号,监控脑电信号本质上等同于监测表层思维。
将不同思考、不同想法下的脑电活动记录编码,就等于成了一本对照翻译手册,参考这本手册,每次获取不同脑电信号,程序就能知道伱想做什么。
这才是真正的依靠思考就心随意动的进行控制,甚至能依靠思考就能输出文字,输出声音,绘制图像等等。
相应的,如果反向传输信号,那就能制造痛觉、触觉、视觉、听觉,使得人与机器彻底的融为一体。
外置设备也能如同精神控制一般进行操作,直接在脑海控制移动、意念规划行动轨迹,同时能继承人体的三维空间感知与平衡感知等等,真正犹如控制自己的躯体。
如果林语没有猜错,二代机体之上的第三代机体大概率就是采用的脑机交互技术,使得人机一体,光靠机体就能获得触觉和视觉嗅觉,也能操作浮游炮之类的外置武装。