模型训练
谷歌的研究者从 12 名志愿者那里收集了 864 个触摸动作的数据样本(12 人分别演示 8 种手势,每种重复 9 次),在此基础上对模型进行训练,使得模型能够辨认出各种不同的手势。
每位参与者均可按照自己的方式进行触摸操作,因为分类高度依赖于用户的风格(接触方法)、偏好(如何捏和抓)以及解剖结构(手的大小)。
值得注意的是,重复感应矩阵中的内在关系非常适合机器学习分类,使得分类器可对有限数据进行快速训练。在实验过程中,典型手势的训练时间不到 30 秒,与训练指纹传感器所需的时间差不多。谷歌表示,该模型识别不同手势的准确度已经达到了 94%。
但如果嵌入消费品的话,识别准确度可能暂时还没这么高。另一个存在的问题是,如果将该技术嵌入到耳机之中,也难保用户在调节音量的时候失手。
什么时候上市开售?这个还无法确定。从两年前发布的「谷歌 x 李维斯联名智能牛仔夹克」来看,或许谷歌正在寻觅一个心意相通的合作方,将这根智能编织绳打造成联名款。
参考链接:
https://ai.googleblog.com/2020/05/enabling-e-textile-microinteractions.html
https://www.theverge.com/2020/5/19/21263386/google-io-braid-experimental-fabric-user-interface-controls