玩转时光机器,让人工智能带你领略老年生活?
在阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持。
编辑|杪夏的光
前言
调查年轻学生体验变老时的身体活动效果,将参与者随机分配到年轻或年长的虚拟角色,并在进行上半身运动时跟踪他们的身体动作,提出并讨论了使用监督学习方法将这些运动模式分配到相应的角色类别中以检测行为差异。
通过支持向量机和卷积神经网络进行深度学习的手部运动分析
在使用线性核的支持向量机和卷积神经网络进行深度学习时,将从原始数据中随机提取的时间子序列插入后,分类准确率非常高。对于手部运动,相关的决策边界显示年轻角色组具有更高水平的局部垂直位置,表明他们的动作敏捷性增加,这种情况对于引导运动和以成就为导向的练习都成立。
分析重点是在上述过程中收集的运动模式,通过将这些模式分类为对照组和实验组来进行处理,运动数据是使用头盔和手柄内的运动追踪器进行跟踪的,有效地允许在虚拟现实环境内外进行协调运动。
通过精确的插值,确保了在虚拟环境中的真实身体位置和三个轴(x、y和z)上的旋转,位置和方向坐标以10 Hz的频率进行跟踪,结果是每个坐标有4970个时间点的运动模式对这些模式在参与者和时间点之间进行标准化,即对所有参与者和时间点的整体均值进行减法运算,并将结果除以所有参与者和时间点的整体标准差,如果数据被分为训练集和测试集。
展示了相对x位置的第一个主成分的密度图,它是所有主成分中解释方差最高的特征,然而,它的方差最大,仅占总方差的约50%,通过密度图和箱线图,没有观察到明显的差异。
Kolmogorov-Smirnov检验(D(72) = 0.28, p = 0.09)和t检验(t(70) = 0.64, p = 0.52)的结果也显示组间没有显著差异,这些初步检查表明,仅仅通过视觉检查和传统的统计显著性检验对整个实验过程中的单个特征进行简单比较可能不足以确定组别之间的差异。
采用了一种逆向的基于机器学习的方法,并对数据进行细分分析,这种方法的优势在于增加了数据集的大小,因为可以提取出每个运动模式的多个子段,这些子段具有固定的长度,是被随机选择并插入到下一节中描述的分类器中。
简单的前馈神经网络(FF),这些方法分为两个步骤:特征提取和基于这些特征的训练,此外,还介绍了卷积神经网络(CNN)作为一种自动的深度学习技术,具有隐式的特征提取功能。由于使用这些算法代表了传统统计推断的一种偏离(例如传统的零假设显著性检验),简要介绍了这些方法背后的数学原理,并解释了它们的优缺点。
所有计算都是使用Python进行的,使用Scikit-learn库(LDA、RF和SVM)和Keras (FF和CNN)提供的实现,为了可视化结果,使用了Matplotlib 和Seaborn ,大多数算法需要指定一些超参数,这些选择将在结果部分中描述。
在传统机器学习方法中,首先使用了线性判别分析(LDA),LDA是一种广泛应用且受欢迎的方法,用于解决二元和多类别分类问题,LDA对于统计建模有一些要求,是当这些要求得到满足时,它能提供强大的结果。
对于关注的二元分类问题,LDA要求与类别k ∈ {0, 1}(对照组与实验组)相对应的观测值应该服从具有均值μk和协方差矩阵Σ的多元正态分布(即所有类别共享相同的协方差矩阵),严格来说,如果观测值xi的真实类别是yi,则条件分布xi | yi = k应该是多元正态分布Np(μk,Σ)。
基于LDA和SVM的线性分类方法及其决策函数的分析与优化
为了预测观测值x的类别,需要估计μk、Σ和先验类别概率P(y = k),其中k = 1, 2,可以通过计算相应的算术平均值、方差-协方差矩阵和类别特定观测值与总观测值的比率来从(训练)数据中获取。
作为另一种选择(等价于上述决策规则)且不需要分布假设,可以通过构建线性组合z = aTx将数据投影到Rp中的一条线上,参数向量a被选择为最大化投影类别均值之间的距离(即所谓的类间方差),相对于投影类别的散布(即所谓的类内方差),以确保在某种程度上,类别之间的重叠最小化。
这个优化过程在投影线上创建了一个切点,该切点被分隔两个类别的线(尽可能远离)垂直地穿过,这个切点的确切位置取决于先验类别概率,这种投影方法在图3a中进行了说明。
在这里,LDA的一个巨大优势显现出来:在二维情况下,投影和分隔线的位置使得对于组别特征的解释变得容易,在Rp中,分隔线变成了一个超平面,LDA也与逻辑回归密切相关,逻辑回归是另一种经典且广泛应用于二元分类的方法 。
LDA和SVM分类概念的示意图,数据点是基于相同协方差矩阵进行模拟,并且每个类别均等地表示,(a)对于LDA,数据点和类均值(黄色星号)在虚线(投影)线上进行正交投影(分别显示为深红色和绿色线)。
实线表示相应的分隔线,在先验类别概率相等的情况下,将观测分配给投影均值最接近观测投影的类别,例如右侧圈起的红点的投影(深红点)更接近上面的类均值的投影,更一般地说,分类是根据数据点位于分隔线的哪一侧来进行的。
(b)对于具有线性核的SVM,最大化分隔线周围的边界(虚线之间的空间),同时可能允许一些离群点(圈起的点;这些包括所有支持向量)。
现在类别由±1进行编码(在当前情况下,类别-1表示与年龄相符的对照条件,通常将其声明为类别0),yi∈{−1, 1}表示与样本xi对应的类别,显然,对于可分离的数据,可以选择D,使得yiD(xi)>0 ∀i。
由于可能存在无限多个满足这样的分类任务的超平面,此处选择的超平面是在两个类别的(训练)样本之间创建最大间隔M的超平面。
如果类别不允许完美分离,就必须通过引入所谓的松弛变量ξi,i = 1, …, n来调整这样的优化任务,这些变量表示样本允许偏离其实际边界的程度,在标准化假设下,可以计算出M=1/∥β∥,并且总的优化任务通常表达为。
参数C被称为成本,它控制离群值的惩罚,一方面,当C很大时,优化过程将导致接受较少错误分类和较少在边界内的数据点的分离超平面,而当C较小时,边界将更大,经过求解最小化任务后,可以证明决策函数的形式为
基于SVM和随机森林的非线性分类方法及其在数据分析中的应用研究
支持向量机(Support Vector Machine,简称SVM)是一种常用的分类算法,它通过构建一个超平面来将不同类别的样本分开,在SVM中,寻找一个决策边界,使得支持向量到该边界的距离最大化。
具体而言,SVM通过求解一个优化问题来确定决策边界的参数,该问题的目标是最小化参数的范数,同时要求所有样本的预测结果与其真实类别一致,为了实现最大化间隔的目标,SVM引入了拉格朗日乘子和对偶问题,通过解决对偶问题,可以获得决策边界的参数。
SVM中的决策边界通常是一个线性函数,用于将样本分为不同的类别,在某些情况下,线性函数可能无法明确地分开样本。可以使用核函数(kernel)来替代内积运算,例如径向基核函数(radial basis function),核函数的使用可以将样本映射到高维空间,从而使得原本线性不可分的问题变得线性可分。
与其他分类算法相比,SVM对于远离决策边界的样本相对较为鲁棒,它仅关注支持向量,即位于间隔边界内或分类错误的样本,从而大大减少了决策边界的确定所需的样本数量。
随机森林(Random Forest,简称RF)是另一种非线性分类方法,与LDA和SVM相比,它更加流行,随机森林是由决策树构成的,具有一定的灵活性。
在随机森林中,决策树将预测空间(Rp)划分为J个不同的区域R1, ..., RJ,并将每个(测试)观测分配给在其所属区域中出现最频繁的类别(在训练观测中),使用本研究的一些特定特征来说明这个概念。
结论
通过使用监督学习方法对年轻学生在体验变老时的身体活动效果进行运动模式分类,发现了行为差异的存在,基于支持向量机(SVM)和卷积神经网络(CNN)的深度学习方法,能够准确地将运动模式分配到相应的年轻和年长角色组中。
观察到年轻角色组在手部运动中具有更高水平的局部垂直位置,表明他们的动作敏捷性增加,这一发现对于引导运动和以成就为导向的练习都具有重要意义,为设计个性化的健康促进方案提供了有价值的线索。
通过传统的统计显著性检验没有观察到明显的差异,通过机器学习方法的细分分析,能够更好地揭示组别之间的行为差异,这种基于数据驱动的方法不仅扩大了数据集的规模,还允许从每个运动模式中提取多个子段进行分类,进一步提高了分类的准确性。
未来的研究可以进一步探索不同年龄群体的行为差异,并结合生理和认知因素进行分析,此外,可以考虑使用其他监督学习方法,随机森林(RF),以验证的发现,并探索不同算法之间的比较和结合。
这项研究对于理解年龄相关的身体活动变化以及设计针对不同年龄群体的运动干预方案具有重要的学术和实际价值,通过深入研究行为差异,可以为促进健康老龄化和提高生活质量的相关政策和实践提供更加准确的指导。
参考文献:
Author A, Author B, Author C. (Year). Title of the paper. Journal Name, Volume(Issue), Page numbers.
[Author X, Author Y, Author Z. (Year). Title of the book. Publisher.
Author M, Author N. (Year). Title of the conference paper. In Proceedings of the Conference Name (pp. xxx-xxx).
Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
Hastie, T., Tibshirani, R., & Friedman, J. (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Springer.
[注:本文部分图片来自互联网!未经授权,不得转载!每天跟着我们读更多的书]
互推传媒文章转载自第三方或本站原创生产,如需转载,请联系版权方授权,如有内容如侵犯了你的权益,请联系我们进行删除!
如若转载,请注明出处:http://www.hfwlcm.com/info/199953.html