# 如何从智能手机数据模拟人类活动
> 原文: [https://machinelearningmastery.com/how-to-model-human-activity-from-smartphone-data/](https://machinelearningmastery.com/how-to-model-human-activity-from-smartphone-data/)
人类活动识别是将由专用线束或智能电话记录的加速度计数据序列分类为已知的明确定义的运动的问题。
鉴于每秒产生大量观测结果,观测的时间性质以及缺乏将加速度计数据与已知运动联系起来的明确方法,这是一个具有挑战性的问题。
该问题的经典方法涉及基于固定大小的窗口和训练机器学习模型(例如决策树的集合)的时间序列数据中的手工制作特征。困难在于此功能工程需要该领域的深厚专业知识。
最近,诸如循环神经网络和一维卷积神经网络(CNN)之类的深度学习方法已经被证明在很少或没有数据特征工程的情况下提供具有挑战性的活动识别任务的最新结果。
在本教程中,您将发现用于时间序列分类的'_ 活动识别使用智能手机 _'数据集,以及如何加载和探索数据集以使其为预测建模做好准备。
完成本教程后,您将了解:
* 如何下载数据集并将其加载到内存中。
* 如何使用线图,直方图和箱线图来更好地理解运动数据的结构。
* 如何建模问题,包括框架,数据准备,建模和评估。
让我们开始吧。
![How to Model Human Activity From Smartphone Data](https://img.kancloud.cn/bc/9d/bc9ddedebd3a1adb593f0e39293128ce_640x419.jpg)
如何从智能手机数据模拟人类活动
照片由[摄影师](https://www.flickr.com/photos/corker888/23930933844/),保留一些权利。
## 教程概述
本教程分为 10 个部分;他们是:
1. 人类活动识别
2. 使用智能手机数据集进行活动识别
3. 下载数据集
4. 加载数据
5. 活动类平衡
6. 绘制一个主题的时间序列数据
7. 绘制每个主题的直方图
8. 绘制每个活动的直方图
9. 绘制活动持续时间箱图
10. 建模方法
## 1.人类活动识别
[人类活动识别](https://en.wikipedia.org/wiki/Activity_recognition),或简称为 HAR,是基于使用传感器的移动痕迹来预测人正在做什么的问题。
运动通常是正常的室内活动,例如站立,坐着,跳跃和上楼梯。
传感器通常位于主体上,例如智能手机或背心,并且经常以三维(x,y,z)记录加速度计数据。
> 人类活动识别(HAR)旨在识别由一个人对他/她自己和周围环境进行一组观察所执行的动作。识别可以通过利用从各种来源(例如环境或身体佩戴的传感器)检索的信息来实现。
- [使用智能手机进行人类活动识别的公共领域数据集](https://upcommons.upc.edu/handle/2117/20897),2013 年。
这个想法是,一旦主体的活动被识别和知道,智能计算机系统就可以提供帮助。
这是一个具有挑战性的问题,因为没有明确的分析方法将传感器数据与一般方式的特定动作联系起来。由于收集了大量的传感器数据(例如,每秒数十或数百次观察),并且在开发预测模型时从这些数据中经典使用手工制作的特征和启发式,因此在技术上具有挑战性。
最近,深度学习方法已经成功地证明了 HAR 问题,因为它们能够自动学习更高阶的特征。
> 基于传感器的活动识别从大量低水平传感器读数中寻找关于人类活动的深刻的高级知识。传统的模式识别方法在过去几年中取得了巨大的进步。然而,这些方法通常严重依赖于启发式手工特征提取,这可能会妨碍它们的泛化表现。 [...]最近,深度学习的最新进展使得可以执行自动高级特征提取,从而在许多领域实现了有希望的表现。
- [基于传感器的活动识别深度学习:调查](https://arxiv.org/abs/1707.03502)
## 2.使用智能手机数据集识别活动
标准人类活动识别数据集是 2012 年提供的“_ 活动识别使用智能手机 _”数据集。
它由 Davide Anguita 等人准备并提供。来自意大利热那亚大学的 2013 年论文“[使用智能手机进行人类活动识别的公共领域数据集](https://upcommons.upc.edu/handle/2117/20897)”中对该数据集进行了全面描述。该数据集在他们的 2012 年论文中用机器学习算法建模,标题为“[使用多类硬件友好支持向量机](https://link.springer.com/chapter/10.1007/978-3-642-35395-6_30)在智能手机上进行人类活动识别。“
数据集可用,可以从 UCI 机器学习库免费下载:
* [使用智能手机数据集进行人类活动识别](https://archive.ics.uci.edu/ml/datasets/human+activity+recognition+using+smartphones)
该数据来自 30 名年龄在 19 至 48 岁之间的受试者,他们进行 6 项标准活动中的一项,同时佩戴记录运动数据的腰部智能手机。记录执行活动的每个受试者的视频,并从这些视频手动标记移动数据。
以下是在记录其移动数据的同时执行活动的主体的示例视频。
<iframe allow="autoplay; encrypted-media" allowfullscreen="" frameborder="0" height="375" src="https://www.youtube.com/embed/XOEN9W05_4A?feature=oembed" width="500"></iframe>
进行的六项活动如下:
1. 步行
2. 走上楼
3. 走楼下
4. 坐在
5. 常设
6. 铺设
记录的运动数据是来自智能手机的 x,y 和 z 加速度计数据(线性加速度)和陀螺仪数据(角速度),特别是[三星 Galaxy S II](https://en.wikipedia.org/wiki/Samsung_Galaxy_S_II) 。
以 50Hz(即每秒 50 个数据点)记录观察结果。每个受试者进行两次活动,一次是左侧设备,另一次是右侧设备。
> 选择了一组 30 名志愿者,年龄从 19 岁到 48 岁不等。每个人都被要求遵循活动协议,同时佩戴腰部安装的三星 Galaxy S II 智能手机。六个选定的 ADL 是站立,坐下,放下,走路,走楼下和楼上。每个受试者执行两次协议:在第一次试验中,智能手机固定在皮带的左侧,而第二次试验由用户自己放置为首选
- [使用智能手机进行人类活动识别的公共领域数据集](https://upcommons.upc.edu/handle/2117/20897),2013。
原始数据不可用。相反,可以使用预处理版本的数据集。
预处理步骤包括:
* 使用噪声滤波器预处理加速度计和陀螺仪。
* 将数据拆分为 2.56 秒(128 个数据点)的固定窗口,重叠率为 50%。
* 将加速度计数据分割为重力(总)和身体运动分量。
> 使用中值滤波器和具有 20Hz 截止频率的 3 阶低通巴特沃斯滤波器对这些信号进行预处理以降低噪声。 [...]加速度信号,具有重力和身体运动成分,使用另一个巴特沃斯低通滤波器分离成身体加速度和重力。
- [使用智能手机进行人类活动识别的公共领域数据集](https://upcommons.upc.edu/handle/2117/20897),2013 年。
特征工程应用于窗口数据,并且提供具有这些工程特征的数据的副本。
从每个窗口提取在人类活动识别领域中常用的许多时间和频率特征。结果是 561 元素的特征向量。
根据受试者的数据,将数据集分成训练(70%)和测试(30%)组。训练 21 个,测试 9 个。
这表明问题的框架,其中一系列运动活动被用作输入来预测当前正在进行的活动的部分(2.56 秒),其中使用已知受试者训练的模型来预测新受试者的运动活动。 。
使用旨在用于智能手机的支持向量机(例如定点算术)的早期实验结果导致测试数据集的预测准确度为 89%,实现与未修改的 SVM 实现类似的结果。
> 该方法适用于标准支持向量机(SVM)并利用定点算法来降低计算成本。与传统 SVM 的比较表明,计算成本方面有显着改善,同时保持了相似的精度[...]
- [智能手机上的人类活动识别使用多类硬件友好支持向量机](https://link.springer.com/chapter/10.1007/978-3-642-35395-6_30),2012。
现在我们已经熟悉了预测问题,我们将看看加载和探索这个数据集。
## 3.下载数据集
该数据集是免费提供的,可以从 UCI 机器学习库下载。
数据以单个 zip 文件的形式提供,大小约为 58 兆字节。此下载的直接链接如下:
* [UCI HAR Dataset.zip](https://archive.ics.uci.edu/ml/machine-learning-databases/00240/UCI%20HAR%20Dataset.zip)
下载数据集并将所有文件解压缩到当前工作目录中名为“ _HARDataset_ ”的新目录中。
检查解压缩的内容,您会注意到以下几点:
* 存在“ _train_ ”和“ _test_ ”文件夹,其包含用于建模的数据的分割部分(例如,70%/ 30%)。
* 有一个“ _README.txt_ ”文件,其中包含数据集的详细技术说明和解压缩文件的内容。
* 有一个“ _features.txt_ ”文件,其中包含工程特性的技术说明。
“ _train_ ”和“ _test_ ”文件夹的内容类似(例如文件夹和文件名),尽管它们包含的特定数据存在差异。
检查“train”文件夹显示了一些重要元素:
* 包含预处理数据的“ _Inertial Signals_ ”文件夹。
* “ _X_train.txt_ ”文件,包含用于拟合模型的工程特征。
* “ _y_train.txt_ ”包含每个观察的类标签(1-6)。
* “ _subject_train.txt_ ”文件,其中包含数据文件中每一行的映射及其主题标识符(1-30)。
每个文件中的行数匹配,表示每行是每个数据文件中的一个记录。
“ _Inertial Signals_ ”目录包含 9 个文件。
* _x,y 和 z 轴的重力加速度 _ 数据文件: _total_acc_x_train.txt_ , _total_acc_y_train.txt_ , _total_acc_z_train.txt_ 。
* _x,y 和 z 轴的身体加速度 _ 数据文件: _body_acc_x_train.txt_ , _body_acc_y_train.txt_ ,body_acc_z_train.txt。
* _x,y 和 z 轴的体陀螺 _ 数据文件: _body_gyro_x_train.txt_ , _body_gyro_y_train.txt_ , _body_gyro_z_train.txt_ 。
该结构在“ _test_ ”目录中进行镜像。
我们将把注意力集中在“_ 惯性信号 _”中的数据,因为这是开发可以学习合适表示的机器学习模型中最有趣的,而不是使用特定于域的特征工程。
检查数据文件显示列由空格分隔,值显示为缩放到-1,1。此缩放可以通过数据集随附的 _README.txt_ 文件中的注释确认。
现在我们知道了我们拥有的数据,我们可以弄清楚如何将其加载到内存中。
## 4.加载数据
在本节中,我们将开发一些代码来将数据集加载到内存中。
首先,我们需要加载一个文件。
我们可以使用 [read_csv()Pandas 函数](http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html)来加载单个数据文件,并指定该文件没有标题并使用空格分隔列。
```py
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
```
我们可以将它包装在名为 _load_file()_ 的函数中。下面列出了此功能的完整示例。
```py
# load dataset
from pandas import read_csv
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
data = load_file('HARDataset/train/Inertial Signals/total_acc_y_train.txt')
print(data.shape)
```
运行该示例加载文件' _total_acc_y_train.txt_ ',返回 NumPy 数组,并打印数组的形状。
我们可以看到训练数据由 7,352 行或数据窗口组成,其中每个窗口有 128 个观察值。
```py
(7352, 128)
```
接下来,将一组文件(例如所有身体加速度数据文件)作为单个组加载将是有用的。
理想情况下,在处理多变量时间序列数据时,以下列格式构建数据非常有用:
```py
[samples, timesteps, features]
```
这有助于分析,并且是对诸如卷积神经网络和循环神经网络的深度学习模型的期望。
我们可以通过多次调用上面的 _load_file()_ 函数来实现这一点,对于组中的每个文件一次。
一旦我们将每个文件作为 NumPy 数组加载,我们就可以将所有三个数组组合或堆叠在一起。我们可以使用 [dstack()NumPy 函数](https://www.numpy.org/devdocs/reference/generated/numpy.dstack.html)来确保每个数组的堆叠方式使得要素在第三维中分离,正如我们所希望的那样。
函数 _load_group()_ 对文件名列表实现此行为,如下所示。
```py
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
```
我们可以通过加载所有总加速文件来演示此功能。
下面列出了完整的示例。
```py
# load dataset
from numpy import dstack
from pandas import read_csv
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load the total acc data
filenames = ['total_acc_x_train.txt', 'total_acc_y_train.txt', 'total_acc_z_train.txt']
total_acc = load_group(filenames, prefix='HARDataset/train/Inertial Signals/')
print(total_acc.shape)
```
运行该示例将打印返回的 NumPy 数组的形状,显示数据集的三个要素 x,y 和 z 的预期样本数和时间步长。
```py
(7352, 128, 3)
```
最后,我们可以使用到目前为止开发的两个函数来加载训练和测试数据集的所有数据。
给定训练和测试文件夹中的并行结构,我们可以开发一个新函数来加载给定文件夹的所有输入和输出数据。该函数可以构建要加载的所有 9 个数据文件的列表,将它们作为一个具有 9 个特征的 NumPy 数组加载,然后加载包含输出类的数据文件。
下面的 _load_dataset()_ 函数实现了这种行为。它可以被称为“ _train_ ”组或“ _test_ ”组,作为字符串参数传递。
```py
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
```
下面列出了完整的示例。
```py
# load dataset
from numpy import dstack
from pandas import read_csv
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
# load all train
trainX, trainy = load_dataset('train', 'HARDataset/')
print(trainX.shape, trainy.shape)
# load all test
testX, testy = load_dataset('test', 'HARDataset/')
print(testX.shape, testy.shape)
```
运行该示例将加载训练和测试数据集。
我们可以看到测试数据集有 2,947 行窗口数据。正如预期的那样,我们可以看到训练和测试装置中的窗口大小匹配,并且每个训练和测试用例中的输出(y)大小与样本数量相匹配。
```py
(7352, 128, 9) (7352, 1)
(2947, 128, 9) (2947, 1)
```
既然我们知道如何加载数据,我们就可以开始探索它了。
## 5.活动类平衡
对数据进行良好的首次检查是调查每项活动的平衡。
我们相信,30 个科目中的每一个都进行了六项活动。
确认此期望将检查数据是否确实平衡,使模型更容易,并确认我们正确加载和解释数据集。
我们可以开发一个函数来总结输出变量的细分,例如: y 变量。
下面的函数 _class_breakdown()_ 实现了这种行为,首先将提供的 NumPy 数组包装在 DataFrame 中,按类值对行进行分组,并计算每个组的大小(行数)。然后总结结果,包括计数和百分比。
```py
# summarize the balance of classes in an output variable column
def class_breakdown(data):
# convert the numpy array into a dataframe
df = DataFrame(data)
# group data by the class value and calculate the number of rows
counts = df.groupby(0).size()
# retrieve raw rows
counts = counts.values
# summarize
for i in range(len(counts)):
percent = counts[i] / len(df) * 100
print('Class=%d, total=%d, percentage=%.3f' % (i+1, counts[i], percent))
```
总结训练和测试数据集中类的细分以确保它们具有类似的细分可能是有用的,然后将结果与组合数据集的细分进行比较。
下面列出了完整的示例。
```py
# summarize class balance
from numpy import array
from numpy import vstack
from pandas import read_csv
from pandas import DataFrame
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# summarize the balance of classes in an output variable column
def class_breakdown(data):
# convert the numpy array into a dataframe
df = DataFrame(data)
# group data by the class value and calculate the number of rows
counts = df.groupby(0).size()
# retrieve raw rows
counts = counts.values
# summarize
for i in range(len(counts)):
percent = counts[i] / len(df) * 100
print('Class=%d, total=%d, percentage=%.3f' % (i+1, counts[i], percent))
# load train file
trainy = load_file('HARDataset/train/y_train.txt')
# summarize class breakdown
print('Train Dataset')
class_breakdown(trainy)
# load test file
testy = load_file('HARDataset/test/y_test.txt')
# summarize class breakdown
print('Test Dataset')
class_breakdown(testy)
# summarize combined class breakdown
print('Both')
combined = vstack((trainy, testy))
class_breakdown(combined)
```
首先运行该示例总结了训练集的细分。我们可以看到每个类的非常相似的分布在数据集的 13%到 19%之间徘徊。
测试集和两个数据集上的结果看起来非常相似。
使用数据集可能是安全的,假设每个训练和测试集以及每个主题可以平衡类的分布。
```py
Train Dataset
Class=1, total=1226, percentage=16.676
Class=2, total=1073, percentage=14.595
Class=3, total=986, percentage=13.411
Class=4, total=1286, percentage=17.492
Class=5, total=1374, percentage=18.689
Class=6, total=1407, percentage=19.138
Test Dataset
Class=1, total=496, percentage=16.831
Class=2, total=471, percentage=15.982
Class=3, total=420, percentage=14.252
Class=4, total=491, percentage=16.661
Class=5, total=532, percentage=18.052
Class=6, total=537, percentage=18.222
Both
Class=1, total=1722, percentage=16.720
Class=2, total=1544, percentage=14.992
Class=3, total=1406, percentage=13.652
Class=4, total=1777, percentage=17.254
Class=5, total=1906, percentage=18.507
Class=6, total=1944, percentage=18.876
```
## 6.绘制一个主题的时间序列数据
我们正在处理时间序列数据,因此导入检查是创建原始数据的线图。
原始数据由每个变量的时间序列数据窗口组成,窗口确实有 50%的重叠。这表明我们可能会在观察中看到一些重复作为线图,除非重叠被删除。
我们可以从使用上面开发的函数加载训练数据集开始。
```py
# load data
trainX, trainy = load_dataset('train', 'HARDataset/')
```
接下来,我们可以在' _train_ '目录中加载' _subject_train.txt_ ',该目录提供行到它所属主题的映射。
我们可以使用 _load_file()_ 函数加载这个文件。加载后,我们还可以使用 _unique()_ NumPy 函数来检索训练数据集中的唯一主题列表。
```py
sub_map = load_file('HARDataset/train/subject_train.txt')
train_subjects = unique(sub_map)
print(train_subjects)
```
接下来,我们需要一种方法来检索单个主题的所有行,例如科目编号 1。
我们可以通过查找属于给定主题的所有行号并使用这些行号从训练数据集中加载的 X 和 y 数据中选择样本来完成此操作。
下面的 _data_for_subject()_ 函数实现了这种行为。它将获取加载的训练数据,行号到主题的加载映射,以及我们感兴趣的主题的主题标识号,并将返回 _X_ 和 _y_ 仅针对该主题的数据。
```py
# get all data for one subject
def data_for_subject(X, y, sub_map, sub_id):
# get row indexes for the subject id
ix = [i for i in range(len(sub_map)) if sub_map[i]==sub_id]
# return the selected samples
return X[ix, :, :], y[ix]
```
现在我们有一个主题的数据,我们可以绘制它。
数据由具有重叠的窗口组成。我们可以编写一个函数来消除这种重叠,并将窗口向下挤压给定变量,将其压缩成一个可以直接绘制为线图的长序列。
下面的 _to_series()_ 函数对给定变量实现此行为,例如窗户阵列。
```py
# convert a series of windows to a 1D list
def to_series(windows):
series = list()
for window in windows:
# remove the overlap from the window
half = int(len(window) / 2) - 1
for value in window[-half:]:
series.append(value)
return series
```
最后,我们有足够的情节来绘制数据。我们可以依次绘制主题的九个变量中的每一个,以及活动水平的最终图。
每个系列将具有相同数量的时间步长(x 轴的长度),因此,为每个变量创建一个子图并垂直对齐所有图可能很有用,这样我们就可以比较每个变量的运动。
下面的 _plot_subject()_ 函数为单个主题的 _X_ 和 _y_ 数据实现此行为。该函数采用与 _load_dataset()_ 函数中加载的变量(第 3 轴)相同的顺序。每个情节都会添加粗略的标题,因此我们不会轻易混淆我们正在看的内容。
```py
# plot the data for one subject
def plot_subject(X, y):
pyplot.figure()
# determine the total number of plots
n, off = X.shape[2] + 1, 0
# plot total acc
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('total acc '+str(i), y=0, loc='left')
off += 1
# plot body acc
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('body acc '+str(i), y=0, loc='left')
off += 1
# plot body gyro
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('body gyro '+str(i), y=0, loc='left')
off += 1
# plot activities
pyplot.subplot(n, 1, n)
pyplot.plot(y)
pyplot.title('activity', y=0, loc='left')
pyplot.show()
```
下面列出了完整的示例。
```py
# plot all vars for one subject
from numpy import array
from numpy import dstack
from numpy import unique
from pandas import read_csv
from matplotlib import pyplot
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
# get all data for one subject
def data_for_subject(X, y, sub_map, sub_id):
# get row indexes for the subject id
ix = [i for i in range(len(sub_map)) if sub_map[i]==sub_id]
# return the selected samples
return X[ix, :, :], y[ix]
# convert a series of windows to a 1D list
def to_series(windows):
series = list()
for window in windows:
# remove the overlap from the window
half = int(len(window) / 2) - 1
for value in window[-half:]:
series.append(value)
return series
# plot the data for one subject
def plot_subject(X, y):
pyplot.figure()
# determine the total number of plots
n, off = X.shape[2] + 1, 0
# plot total acc
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('total acc '+str(i), y=0, loc='left')
off += 1
# plot body acc
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('body acc '+str(i), y=0, loc='left')
off += 1
# plot body gyro
for i in range(3):
pyplot.subplot(n, 1, off+1)
pyplot.plot(to_series(X[:, :, off]))
pyplot.title('body gyro '+str(i), y=0, loc='left')
off += 1
# plot activities
pyplot.subplot(n, 1, n)
pyplot.plot(y)
pyplot.title('activity', y=0, loc='left')
pyplot.show()
# load data
trainX, trainy = load_dataset('train', 'HARDataset/')
# load mapping of rows to subjects
sub_map = load_file('HARDataset/train/subject_train.txt')
train_subjects = unique(sub_map)
print(train_subjects)
# get the data for one subject
sub_id = train_subjects[0]
subX, suby = data_for_subject(trainX, trainy, sub_map, sub_id)
print(subX.shape, suby.shape)
# plot data for subject
plot_subject(subX, suby)
```
运行该示例将打印训练数据集中的唯一主题,第一个主题的数据样本,并创建一个包含 10 个图的图形,每个图形对应九个输入变量和输出类别。
```py
[ 1 3 5 6 7 8 11 14 15 16 17 19 21 22 23 25 26 27 28 29 30]
(341, 128, 9) (341, 1)
```
在图中,我们可以看到与活动 1,2 和 3 相对应的大运动周期:步行活动。对于编号较高的活动,4,5 和 6(坐,站立和铺设),我们还可以看到更少的活动(即相对直线)。
这是我们正确加载解释原始数据集的确认。
我们可以看到这个主题已经执行了两次相同的一般活动顺序,并且一些活动执行了两次以上。这表明,对于特定主题,我们不应假设可能已执行的活动或其顺序。
我们还可以看到一些固定活动的相对较大的运动,例如铺设。这些可能是异常值或与活动转换相关。可以将这些观察结果平滑或移除为异常值。
最后,我们在九个变量中看到了很多共性。很可能只需要这些迹线的一部分来开发预测模型。
![Line plot for all variables for a single subject](https://img.kancloud.cn/93/6d/936df54a91205d79b08be6187b9924e9_1280x960.jpg)
单个主题的所有变量的线图
我们可以通过做一个小的改动来重新运行另一个主题的例子,例如:选择训练数据集中第二个主题的标识符。
```py
# get the data for one subject
sub_id = train_subjects[1]
```
第二个主题的情节显示出类似的行为,没有任何意外。
活动的双重序列确实比第一个主题更加规律。
![Line plot for all variables for a second single subject](https://img.kancloud.cn/41/03/41030e033081c6248d7d158d91125c29_1280x960.jpg)
第二个单个主题的所有变量的线图
## 7.绘制每个受试者的直方图
由于问题是框架,我们有兴趣使用一些科目的运动数据来预测其他科目的运动活动。
这表明跨学科的运动数据必须有规律性。我们知道数据已经在-1 和 1 之间缩放,可能是每个受试者,这表明检测到的运动的幅度将是相似的。
我们还期望运动数据的分布在不同主题之间是相似的,因为它们执行相同的动作。
我们可以通过绘制和比较受试者的运动数据的直方图来检查这一点。一种有用的方法是为每个受试者创建一个图并绘制给定数据的所有三个轴(例如总加速度),然后对多个受试者重复此操作。可以修改绘图以使用相同的轴并水平对齐,以便可以比较跨主题的每个变量的分布。
下面的 _plot_subject_histograms()_ 函数实现了这种行为。该函数采用加载的数据集和行到主题的映射以及要绘制的最大主题数,默认情况下固定为 10。
为每个主题创建一个绘图,并将一个数据类型的三个变量绘制为具有 100 个二进制位的直方图,以帮助使分布明显。每个图共享相同的轴,该轴固定在-1 和 1 的边界。
```py
# plot histograms for multiple subjects
def plot_subject_histograms(X, y, sub_map, n=10):
pyplot.figure()
# get unique subjects
subject_ids = unique(sub_map[:,0])
# enumerate subjects
xaxis = None
for k in range(n):
sub_id = subject_ids[k]
# get data for one subject
subX, _ = data_for_subject(X, y, sub_map, sub_id)
# total acc
for i in range(3):
ax = pyplot.subplot(n, 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(subX[:,:,i]), bins=100)
pyplot.show()
```
下面列出了完整的示例。
```py
# plot histograms for multiple subjects
from numpy import array
from numpy import unique
from numpy import dstack
from pandas import read_csv
from matplotlib import pyplot
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
# get all data for one subject
def data_for_subject(X, y, sub_map, sub_id):
# get row indexes for the subject id
ix = [i for i in range(len(sub_map)) if sub_map[i]==sub_id]
# return the selected samples
return X[ix, :, :], y[ix]
# convert a series of windows to a 1D list
def to_series(windows):
series = list()
for window in windows:
# remove the overlap from the window
half = int(len(window) / 2) - 1
for value in window[-half:]:
series.append(value)
return series
# plot histograms for multiple subjects
def plot_subject_histograms(X, y, sub_map, n=10):
pyplot.figure()
# get unique subjects
subject_ids = unique(sub_map[:,0])
# enumerate subjects
xaxis = None
for k in range(n):
sub_id = subject_ids[k]
# get data for one subject
subX, _ = data_for_subject(X, y, sub_map, sub_id)
# total acc
for i in range(3):
ax = pyplot.subplot(n, 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(subX[:,:,i]), bins=100)
pyplot.show()
# load training dataset
X, y = load_dataset('train', 'HARDataset/')
# load mapping of rows to subjects
sub_map = load_file('HARDataset/train/subject_train.txt')
# plot histograms for subjects
plot_subject_histograms(X, y, sub_map)
```
运行该示例将创建一个包含 10 个绘图的单个图形,其中包含总加速度数据的三个轴的直方图。
给定图上的三个轴中的每一个具有不同的颜色,具体地,x,y 和 z 分别是蓝色,橙色和绿色。
我们可以看到给定轴的分布确实看起来是高斯分布的,具有大的独立数据组。
我们可以看到一些分布对齐(例如,中间的主要组大约为 0.0),这表明对象之间的运动数据可能存在一些连续性,至少对于这些数据而言。
![Histograms of the total acceleration data for 10 subjects](https://img.kancloud.cn/7f/10/7f10db6a5107dad13f20e9fa104c46d5_1280x960.jpg)
10 个受试者的总加速度数据的直方图
我们可以更新 _plot_subject_histograms()_ 函数,接下来绘制身体加速度的分布。更新的功能如下所示。
```py
# plot histograms for multiple subjects
def plot_subject_histograms(X, y, sub_map, n=10):
pyplot.figure()
# get unique subjects
subject_ids = unique(sub_map[:,0])
# enumerate subjects
xaxis = None
for k in range(n):
sub_id = subject_ids[k]
# get data for one subject
subX, _ = data_for_subject(X, y, sub_map, sub_id)
# body acc
for i in range(3):
ax = pyplot.subplot(n, 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(subX[:,:,3+i]), bins=100)
pyplot.show()
```
运行更新的示例会创建具有非常不同结果的相同图表。
在这里,我们可以看到所有数据聚集在一个主题内和主题之间的轴上。这表明数据可能是中心的(零均值)。跨受试者的这种强一致性可能有助于建模,并且可能表明总加速度数据中受试者之间的差异可能不那么有用。
![Histograms of the body acceleration data for 10 subjects](https://img.kancloud.cn/bc/88/bc88d44f509f53f500781007f720cb61_1280x960.jpg)
10 名受试者的身体加速度数据的直方图
最后,我们可以为陀螺仪数据生成一个最终图。
更新的功能如下所示。
```py
# plot histograms for multiple subjects
def plot_subject_histograms(X, y, sub_map, n=10):
pyplot.figure()
# get unique subjects
subject_ids = unique(sub_map[:,0])
# enumerate subjects
xaxis = None
for k in range(n):
sub_id = subject_ids[k]
# get data for one subject
subX, _ = data_for_subject(X, y, sub_map, sub_id)
# body acc
for i in range(3):
ax = pyplot.subplot(n, 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(subX[:,:,6+i]), bins=100)
pyplot.show()
```
运行该示例显示与身体加速度数据非常相似的结果。
我们看到每个轴上的每个轴的高斯分布的可能性很高,以 0.0 为中心。分布更宽一些,显示更加丰富的尾巴,但这对于跨主题的运动数据建模是一个令人鼓舞的发现。
![Histograms of the body gyroscope data for 10 subjects](https://img.kancloud.cn/2f/c5/2fc58620b376af31993781639f098b57_1280x960.jpg)
10 名受试者的身体陀螺仪数据的直方图
## 8.绘制每个活动的直方图
我们有兴趣根据活动数据区分活动。
最简单的情况是区分单个主题的活动。调查此问题的一种方法是按活动审查主题的移动数据分布。我们希望看到单个主题的不同活动的运动数据之间的分布存在一些差异。
我们可以通过创建每个活动的直方图来检查这一点,每个图上给定数据类型的三个轴。同样,可以水平排列图以比较每个数据轴的活动分布。我们希望看到各地活动的分布存在差异。
首先,我们必须按活动对主题的跟踪进行分组。下面的 _data_by_activity()_ 函数实现了这种行为。
```py
# group data by activity
def data_by_activity(X, y, activities):
# group windows by activity
return {a:X[y[:,0]==a, :, :] for a in activities}
```
我们现在可以为给定主题的每个活动创建绘图。
下面的 _plot_activity_histograms()_ 函数为给定主题的跟踪数据实现此功能。
首先,按活动对数据进行分组,然后为每个活动创建一个子图,并将数据类型的每个轴添加为直方图。该函数仅枚举数据的前三个特征,即总加速度变量。
```py
# plot histograms for each activity for a subject
def plot_activity_histograms(X, y):
# get a list of unique activities for the subject
activity_ids = unique(y[:,0])
# group windows by activity
grouped = data_by_activity(X, y, activity_ids)
# plot per activity, histograms for each axis
pyplot.figure()
xaxis = None
for k in range(len(activity_ids)):
act_id = activity_ids[k]
# total acceleration
for i in range(3):
ax = pyplot.subplot(len(activity_ids), 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(grouped[act_id][:,:,i]), bins=100)
pyplot.title('activity '+str(act_id), y=0, loc='left')
pyplot.show()
```
下面列出了完整的示例。
```py
# plot histograms per activity for a subject
from numpy import array
from numpy import dstack
from numpy import unique
from pandas import read_csv
from matplotlib import pyplot
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
# get all data for one subject
def data_for_subject(X, y, sub_map, sub_id):
# get row indexes for the subject id
ix = [i for i in range(len(sub_map)) if sub_map[i]==sub_id]
# return the selected samples
return X[ix, :, :], y[ix]
# convert a series of windows to a 1D list
def to_series(windows):
series = list()
for window in windows:
# remove the overlap from the window
half = int(len(window) / 2) - 1
for value in window[-half:]:
series.append(value)
return series
# group data by activity
def data_by_activity(X, y, activities):
# group windows by activity
return {a:X[y[:,0]==a, :, :] for a in activities}
# plot histograms for each activity for a subject
def plot_activity_histograms(X, y):
# get a list of unique activities for the subject
activity_ids = unique(y[:,0])
# group windows by activity
grouped = data_by_activity(X, y, activity_ids)
# plot per activity, histograms for each axis
pyplot.figure()
xaxis = None
for k in range(len(activity_ids)):
act_id = activity_ids[k]
# total acceleration
for i in range(3):
ax = pyplot.subplot(len(activity_ids), 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(grouped[act_id][:,:,i]), bins=100)
pyplot.title('activity '+str(act_id), y=0, loc='left')
pyplot.show()
# load data
trainX, trainy = load_dataset('train', 'HARDataset/')
# load mapping of rows to subjects
sub_map = load_file('HARDataset/train/subject_train.txt')
train_subjects = unique(sub_map)
# get the data for one subject
sub_id = train_subjects[0]
subX, suby = data_for_subject(trainX, trainy, sub_map, sub_id)
# plot data for subject
plot_activity_histograms(subX, suby)
```
运行该示例将创建包含六个子图的图,每个子图用于训练数据集中第一个主题的每个活动。总加速度数据的 x,y 和 z 轴中的每一个分别具有蓝色,橙色和绿色直方图。
我们可以看到每个活动都有不同的数据分布,大运动(前三个活动)与固定活动(最后三个活动)之间存在显着差异。前三个活动的数据分布看起来是高斯的,可能有不同的均值和标准偏差。后一活动的分布看起来是多模态的(即多个峰值)。
![Histograms of the total acceleration data by activity](https://img.kancloud.cn/35/03/3503e4868e129fc09cfaf36160a2e1fb_1280x960.jpg)
按活动计算的总加速度数据的直方图
我们可以使用 _plot_activity_histograms()_ 的更新版本重新运行相同的示例,该版本将绘制车身加速度数据。
更新的功能如下所示。
```py
# plot histograms for each activity for a subject
def plot_activity_histograms(X, y):
# get a list of unique activities for the subject
activity_ids = unique(y[:,0])
# group windows by activity
grouped = data_by_activity(X, y, activity_ids)
# plot per activity, histograms for each axis
pyplot.figure()
xaxis = None
for k in range(len(activity_ids)):
act_id = activity_ids[k]
# total acceleration
for i in range(3):
ax = pyplot.subplot(len(activity_ids), 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(grouped[act_id][:,:,3+i]), bins=100)
pyplot.title('activity '+str(act_id), y=0, loc='left')
pyplot.show()
```
运行更新的示例会创建一个新的图。
在这里,我们可以看到在动作与静止活动之间的活动中有更多类似的分布。在动态活动的情况下数据看起来是双峰的,并且在静止活动的情况下可能是高斯的或指数的。
我们通过活动看到的总体对体加速度分布的模式反映了我们在上一节中使用相同数据类型看到的对象。也许总加速度数据是区分活动的关键。
![Histograms of the body acceleration data by activity](https://img.kancloud.cn/89/04/89041599d841c3de9433a52cc9dbc6e7_1280x960.jpg)
通过活动的身体加速度数据的直方图
最后,我们可以再次更新示例以绘制陀螺仪数据的每个活动的直方图。
更新的功能如下所示。
```py
# plot histograms for each activity for a subject
def plot_activity_histograms(X, y):
# get a list of unique activities for the subject
activity_ids = unique(y[:,0])
# group windows by activity
grouped = data_by_activity(X, y, activity_ids)
# plot per activity, histograms for each axis
pyplot.figure()
xaxis = None
for k in range(len(activity_ids)):
act_id = activity_ids[k]
# total acceleration
for i in range(3):
ax = pyplot.subplot(len(activity_ids), 1, k+1, sharex=xaxis)
ax.set_xlim(-1,1)
if k == 0:
xaxis = ax
pyplot.hist(to_series(grouped[act_id][:,:,6+i]), bins=100)
pyplot.title('activity '+str(act_id), y=0, loc='left')
pyplot.show()
```
运行该示例将创建具有与身体加速度数据类似的模式的绘图,尽管可能显示胖尾高斯分布而不是动态活动的双峰分布。
![Histograms of the body gyroscope data by activity](https://img.kancloud.cn/20/4a/204a8d33ce922117f42445f941e8443e_1280x960.jpg)
通过活动的身体陀螺仪数据的直方图
所有这些图都是为第一个主题创建的,我们期望在其他主题的活动中看到类似的运动数据分布和关系。
## 9.绘制活动持续时间箱图
需要考虑的最后一个方面是受试者在每项活动上花费的时间。
这与班级的平衡密切相关。如果活动(类)在数据集中通常是平衡的,那么我们期望特定主题在其跟踪过程中的活动平衡也将相当平衡。
我们可以通过计算每个主题在每个活动上花费的时间(样本或行数)并查看每个活动的持续时间分布来确认这一点。
审查这些数据的一种方便方法是将分布总结为箱线图,显示中位数(线),中间 50%(方框),数据的一般范围(四分位数间距)和异常值(以点为单位) 。
下面的函数 _plot_activity_durations_by_subject()_ 通过首先按主题分割数据集,然后按活动分割主题数据并计算在每个活动上花费的行,然后最终创建持续时间测量的每个活动的箱线图来实现此行为。
```py
# plot activity durations by subject
def plot_activity_durations_by_subject(X, y, sub_map):
# get unique subjects and activities
subject_ids = unique(sub_map[:,0])
activity_ids = unique(y[:,0])
# enumerate subjects
activity_windows = {a:list() for a in activity_ids}
for sub_id in subject_ids:
# get data for one subject
_, subj_y = data_for_subject(X, y, sub_map, sub_id)
# count windows by activity
for a in activity_ids:
activity_windows[a].append(len(subj_y[subj_y[:,0]==a]))
# organize durations into a list of lists
durations = [activity_windows[a] for a in activity_ids]
pyplot.boxplot(durations, labels=activity_ids)
pyplot.show()
```
下面列出了完整的示例。
```py
# plot durations of each activity by subject
from numpy import array
from numpy import dstack
from numpy import unique
from pandas import read_csv
from matplotlib import pyplot
# load a single file as a numpy array
def load_file(filepath):
dataframe = read_csv(filepath, header=None, delim_whitespace=True)
return dataframe.values
# load a list of files, such as x, y, z data for a given variable
def load_group(filenames, prefix=''):
loaded = list()
for name in filenames:
data = load_file(prefix + name)
loaded.append(data)
# stack group so that features are the 3rd dimension
loaded = dstack(loaded)
return loaded
# load a dataset group, such as train or test
def load_dataset(group, prefix=''):
filepath = prefix + group + '/Inertial Signals/'
# load all 9 files as a single array
filenames = list()
# total acceleration
filenames += ['total_acc_x_'+group+'.txt', 'total_acc_y_'+group+'.txt', 'total_acc_z_'+group+'.txt']
# body acceleration
filenames += ['body_acc_x_'+group+'.txt', 'body_acc_y_'+group+'.txt', 'body_acc_z_'+group+'.txt']
# body gyroscope
filenames += ['body_gyro_x_'+group+'.txt', 'body_gyro_y_'+group+'.txt', 'body_gyro_z_'+group+'.txt']
# load input data
X = load_group(filenames, filepath)
# load class output
y = load_file(prefix + group + '/y_'+group+'.txt')
return X, y
# get all data for one subject
def data_for_subject(X, y, sub_map, sub_id):
# get row indexes for the subject id
ix = [i for i in range(len(sub_map)) if sub_map[i]==sub_id]
# return the selected samples
return X[ix, :, :], y[ix]
# convert a series of windows to a 1D list
def to_series(windows):
series = list()
for window in windows:
# remove the overlap from the window
half = int(len(window) / 2) - 1
for value in window[-half:]:
series.append(value)
return series
# group data by activity
def data_by_activity(X, y, activities):
# group windows by activity
return {a:X[y[:,0]==a, :, :] for a in activities}
# plot activity durations by subject
def plot_activity_durations_by_subject(X, y, sub_map):
# get unique subjects and activities
subject_ids = unique(sub_map[:,0])
activity_ids = unique(y[:,0])
# enumerate subjects
activity_windows = {a:list() for a in activity_ids}
for sub_id in subject_ids:
# get data for one subject
_, subj_y = data_for_subject(X, y, sub_map, sub_id)
# count windows by activity
for a in activity_ids:
activity_windows[a].append(len(subj_y[subj_y[:,0]==a]))
# organize durations into a list of lists
durations = [activity_windows[a] for a in activity_ids]
pyplot.boxplot(durations, labels=activity_ids)
pyplot.show()
# load training dataset
X, y = load_dataset('train', 'HARDataset/')
# load mapping of rows to subjects
sub_map = load_file('HARDataset/train/subject_train.txt')
# plot durations
plot_activity_durations_by_subject(X, y, sub_map)
```
运行该示例将创建六个箱形图,每个活动一个。
每个箱图总结了训练数据集中每个活动花费的时间(行数或窗口数)。
我们可以看到,受试者在静止活动(4,5 和 6)上花费的时间更多,在动作活动中花费的时间更少(1,2 和 3),3 的分布最小,或者时间花费最少。
活动的分布并不大,这表明不需要削减较长时间的活动或过度采样活动。尽管如果运动活动的预测模型的技能通常更差,这些方法仍然可用。
![Boxplot of activity durations per subject on train set](https://img.kancloud.cn/f5/c1/f5c1a3608baab01cede2b3a478fe7056_1280x960.jpg)
训练组上每个受试者的活动持续时间的箱线图
我们可以使用以下附加行为训练数据创建类似的箱线图。
```py
# load test dataset
X, y = load_dataset('test', 'HARDataset/')
# load mapping of rows to subjects
sub_map = load_file('HARDataset/test/subject_test.txt')
# plot durations
plot_activity_durations_by_subject(X, y, sub_map)
```
运行更新的示例显示了活动之间的类似关系。
这是令人鼓舞的,这表明测试和训练数据集确实可以合理地代表整个数据集。
![Boxplot of activity durations per subject on test set](https://img.kancloud.cn/25/2c/252c18e3f8708b4ec8e59fac36e60c84_1280x960.jpg)
测试集上每个受试者的活动持续时间的箱线图
现在我们已经探索了数据集,我们可以建议一些关于如何建模的想法。
## 10.建模方法
在本节中,我们总结了一些建模活动识别数据集的方法。
这些想法分为项目的主题。
### 问题框架
第一个重要的考虑因素是预测问题的框架。
原始作品中描述的问题的框架是基于已知主体的运动数据和活动,根据运动数据预测新主体的活动。
我们可以总结为:
* 给出一个移动数据窗口预测活动。
这是一个合理而有用的问题框架。
将提供的数据构建为预测问题的其他一些可能方法包括:
* 在给定移动数据的时间步长的情况下预测活动。
* 给出多个移动数据窗口的预测活动。
* 给定多个移动数据窗口的预测活动序列。
* 给出预分段活动的一系列移动数据的预测活动。
* 给定移动数据的时间步长,预测活动停止或转换。
* 给定移动数据窗口预测静止或非静止活动
其中一些框架可能过于具有挑战性或太容易。
然而,这些框架提供了探索和理解数据集的其他方法。
### 数据准备
在使用原始数据训练模型之前可能需要一些数据准备。
数据似乎已经缩放到范围[-1,1]。
在建模之前可以执行的一些其他数据转换包括:
* 跨学科规范化。
* 每个科目的标准化。
* 跨学科标准化。
* 轴功能选择。
* 数据类型功能选择。
* 信号异常检测和清除。
* 删除过多代表活动的窗口。
* 对代表性不足的活动进行过采样。
* 将信号数据下采样到 1 / 4,1 / 2,1,2 或其他部分。
### 预测建模
通常,问题是时间序列多类分类问题。
正如我们所看到的,它也可以被构造为二元分类问题和多步时间序列分类问题。
最初的论文探讨了在数据集版本中使用经典机器学习算法,其中从每个数据窗口设计了特征。具体地说,是一种改进的支持向量机
数据集的特征工程版本上的 SVM 结果可以提供问题表现的基线。
从这一点扩展,在该版本的数据集上评估多个线性,非线性和集合机器学习算法可以提供改进的基准。
问题的焦点可能是数据集的未设计或原始版本。
在这里,可以探索模型复杂性的进展,以确定最合适的问题模型;一些候选模型包括:
* 常见的线性,非线性和集成机器学习算法。
* 多层感知器。
* 卷积神经网络,特别是 1D CNN。
* 循环神经网络,特别是 LSTM。
* CNN 和 LSTMS 的杂交体,例如 CNN-LSTM 和 ConvLSTM。
### 模型评估
在原始论文中对模型的评估涉及使用 70%和 30%比率的受试者对数据进行训练/测试分割。
对这种预先定义的数据分割的探索表明,这两组都能够合理地代表整个数据集。
另一种替代方法可以是每个受试者使用留一法交叉验证或 LOOCV。除了为每个受试者提供用作保留测试集的机会之外,该方法还将提供可以平均和总结的 30 个分数的群体,这可以提供更稳健的结果。
使用分类精度和混淆矩阵表示模型表现,两者都适用于预测问题的多类性质。
具体而言,混淆矩阵将有助于确定某些类别比其他类别更容易或更具挑战性,例如静止活动与涉及运动的活动相比。
## 进一步阅读
如果您希望深入了解,本节将提供有关该主题的更多资源。
### 文件
* [基于传感器的活动识别的深度学习:一项调查](https://arxiv.org/abs/1707.03502)。
* [使用智能手机进行人类活动识别的公共领域数据集](https://upcommons.upc.edu/handle/2117/20897),2013 年。
* [智能手机上的人类活动识别使用多类硬件友好支持向量机](https://link.springer.com/chapter/10.1007/978-3-642-35395-6_30),2012。
### API
* [pandas.read_csv API](http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html)
* [numpy.dstack API](https://www.numpy.org/devdocs/reference/generated/numpy.dstack.html)
### 用品
* [使用智能手机数据集进行人类活动识别,UCI 机器学习库](https://archive.ics.uci.edu/ml/datasets/human+activity+recognition+using+smartphones)
* [活动识别,维基百科](https://en.wikipedia.org/wiki/Activity_recognition)
* [使用智能手机传感器](https://www.youtube.com/watch?v=XOEN9W05_4A),视频的活动识别实验。
## 摘要
在本教程中,您发现了使用智能手机数据集进行时间序列分类的活动识别,以及如何加载和浏览数据集以使其为预测建模做好准备。
具体来说,你学到了:
* 如何下载数据集并将其加载到内存中。
* 如何使用线图,直方图和箱线图来更好地理解运动数据的结构。
* 如何建模问题包括框架,数据准备,建模和评估。
你有任何问题吗?
在下面的评论中提出您的问题,我会尽力回答。
- Machine Learning Mastery 应用机器学习教程
- 5竞争机器学习的好处
- 过度拟合的简单直觉,或者为什么测试训练数据是一个坏主意
- 特征选择简介
- 应用机器学习作为一个搜索问题的温和介绍
- 为什么应用机器学习很难
- 为什么我的结果不如我想的那么好?你可能过度拟合了
- 用ROC曲线评估和比较分类器表现
- BigML评论:发现本机学习即服务平台的聪明功能
- BigML教程:开发您的第一个决策树并进行预测
- 构建生产机器学习基础设施
- 分类准确性不够:可以使用更多表现测量
- 一种预测模型的巧妙应用
- 机器学习项目中常见的陷阱
- 数据清理:将凌乱的数据转换为整洁的数据
- 机器学习中的数据泄漏
- 数据,学习和建模
- 数据管理至关重要以及为什么需要认真对待它
- 将预测模型部署到生产中
- 参数和超参数之间有什么区别?
- 测试和验证数据集之间有什么区别?
- 发现特征工程,如何设计特征以及如何获得它
- 如何开始使用Kaggle
- 超越预测
- 如何在评估机器学习算法时选择正确的测试选项
- 如何定义机器学习问题
- 如何评估机器学习算法
- 如何获得基线结果及其重要性
- 如何充分利用机器学习数据
- 如何识别数据中的异常值
- 如何提高机器学习效果
- 如何在竞争机器学习中踢屁股
- 如何知道您的机器学习模型是否具有良好的表现
- 如何布局和管理您的机器学习项目
- 如何为机器学习准备数据
- 如何减少最终机器学习模型中的方差
- 如何使用机器学习结果
- 如何解决像数据科学家这样的问题
- 通过数据预处理提高模型精度
- 处理机器学习的大数据文件的7种方法
- 建立机器学习系统的经验教训
- 如何使用机器学习清单可靠地获得准确的预测(即使您是初学者)
- 机器学习模型运行期间要做什么
- 机器学习表现改进备忘单
- 来自世界级从业者的机器学习技巧:Phil Brierley
- 模型预测精度与机器学习中的解释
- 竞争机器学习的模型选择技巧
- 机器学习需要多少训练数据?
- 如何系统地规划和运行机器学习实验
- 应用机器学习过程
- 默认情况下可重现的机器学习结果
- 10个实践应用机器学习的标准数据集
- 简单的三步法到最佳机器学习算法
- 打击机器学习数据集中不平衡类的8种策略
- 模型表现不匹配问题(以及如何处理)
- 黑箱机器学习的诱惑陷阱
- 如何培养最终的机器学习模型
- 使用探索性数据分析了解您的问题并获得更好的结果
- 什么是数据挖掘和KDD
- 为什么One-Hot在机器学习中编码数据?
- 为什么你应该在你的机器学习问题上进行抽样检查算法
- 所以,你正在研究机器学习问题......
- Machine Learning Mastery Keras 深度学习教程
- Keras 中神经网络模型的 5 步生命周期
- 在 Python 迷你课程中应用深度学习
- Keras 深度学习库的二元分类教程
- 如何用 Keras 构建多层感知器神经网络模型
- 如何在 Keras 中检查深度学习模型
- 10 个用于 Amazon Web Services 深度学习的命令行秘籍
- 机器学习卷积神经网络的速成课程
- 如何在 Python 中使用 Keras 进行深度学习的度量
- 深度学习书籍
- 深度学习课程
- 你所知道的深度学习是一种谎言
- 如何设置 Amazon AWS EC2 GPU 以训练 Keras 深度学习模型(分步)
- 神经网络中批量和迭代之间的区别是什么?
- 在 Keras 展示深度学习模型训练历史
- 基于 Keras 的深度学习模型中的dropout正则化
- 评估 Keras 中深度学习模型的表现
- 如何评价深度学习模型的技巧
- 小批量梯度下降的简要介绍以及如何配置批量大小
- 在 Keras 中获得深度学习帮助的 9 种方法
- 如何使用 Keras 在 Python 中网格搜索深度学习模型的超参数
- 用 Keras 在 Python 中使用卷积神经网络进行手写数字识别
- 如何用 Keras 进行预测
- 用 Keras 进行深度学习的图像增强
- 8 个深度学习的鼓舞人心的应用
- Python 深度学习库 Keras 简介
- Python 深度学习库 TensorFlow 简介
- Python 深度学习库 Theano 简介
- 如何使用 Keras 函数式 API 进行深度学习
- Keras 深度学习库的多类分类教程
- 多层感知器神经网络速成课程
- 基于卷积神经网络的 Keras 深度学习库中的目标识别
- 流行的深度学习库
- 用深度学习预测电影评论的情感
- Python 中的 Keras 深度学习库的回归教程
- 如何使用 Keras 获得可重现的结果
- 如何在 Linux 服务器上运行深度学习实验
- 保存并加载您的 Keras 深度学习模型
- 用 Keras 逐步开发 Python 中的第一个神经网络
- 用 Keras 理解 Python 中的有状态 LSTM 循环神经网络
- 在 Python 中使用 Keras 深度学习模型和 Scikit-Learn
- 如何使用预训练的 VGG 模型对照片中的物体进行分类
- 在 Python 和 Keras 中对深度学习模型使用学习率调度
- 如何在 Keras 中可视化深度学习神经网络模型
- 什么是深度学习?
- 何时使用 MLP,CNN 和 RNN 神经网络
- 为什么用随机权重初始化神经网络?
- Machine Learning Mastery 深度学习 NLP 教程
- 深度学习在自然语言处理中的 7 个应用
- 如何实现自然语言处理的波束搜索解码器
- 深度学习文档分类的最佳实践
- 关于自然语言处理的热门书籍
- 在 Python 中计算文本 BLEU 分数的温和介绍
- 使用编码器 - 解码器模型的用于字幕生成的注入和合并架构
- 如何用 Python 清理机器学习的文本
- 如何配置神经机器翻译的编码器 - 解码器模型
- 如何开始深度学习自然语言处理(7 天迷你课程)
- 自然语言处理的数据集
- 如何开发一种深度学习的词袋模型来预测电影评论情感
- 深度学习字幕生成模型的温和介绍
- 如何在 Keras 中定义神经机器翻译的编码器 - 解码器序列 - 序列模型
- 如何利用小实验在 Keras 中开发字幕生成模型
- 如何从头开发深度学习图片标题生成器
- 如何在 Keras 中开发基于字符的神经语言模型
- 如何开发用于情感分析的 N-gram 多通道卷积神经网络
- 如何从零开始开发神经机器翻译系统
- 如何在 Python 中用 Keras 开发基于单词的神经语言模型
- 如何开发一种预测电影评论情感的词嵌入模型
- 如何使用 Gensim 在 Python 中开发词嵌入
- 用于文本摘要的编码器 - 解码器深度学习模型
- Keras 中文本摘要的编码器 - 解码器模型
- 用于神经机器翻译的编码器 - 解码器循环神经网络模型
- 浅谈词袋模型
- 文本摘要的温和介绍
- 编码器 - 解码器循环神经网络中的注意力如何工作
- 如何利用深度学习自动生成照片的文本描述
- 如何开发一个单词级神经语言模型并用它来生成文本
- 浅谈神经机器翻译
- 什么是自然语言处理?
- 牛津自然语言处理深度学习课程
- 如何为机器翻译准备法语到英语的数据集
- 如何为情感分析准备电影评论数据
- 如何为文本摘要准备新闻文章
- 如何准备照片标题数据集以训练深度学习模型
- 如何使用 Keras 为深度学习准备文本数据
- 如何使用 scikit-learn 为机器学习准备文本数据
- 自然语言处理神经网络模型入门
- 对自然语言处理的深度学习的承诺
- 在 Python 中用 Keras 进行 LSTM 循环神经网络的序列分类
- 斯坦福自然语言处理深度学习课程评价
- 统计语言建模和神经语言模型的简要介绍
- 使用 Keras 在 Python 中进行 LSTM 循环神经网络的文本生成
- 浅谈机器学习中的转换
- 如何使用 Keras 将词嵌入层用于深度学习
- 什么是用于文本的词嵌入
- Machine Learning Mastery 深度学习时间序列教程
- 如何开发人类活动识别的一维卷积神经网络模型
- 人类活动识别的深度学习模型
- 如何评估人类活动识别的机器学习算法
- 时间序列预测的多层感知器网络探索性配置
- 比较经典和机器学习方法进行时间序列预测的结果
- 如何通过深度学习快速获得时间序列预测的结果
- 如何利用 Python 处理序列预测问题中的缺失时间步长
- 如何建立预测大气污染日的概率预测模型
- 如何开发一种熟练的机器学习时间序列预测模型
- 如何构建家庭用电自回归预测模型
- 如何开发多步空气污染时间序列预测的自回归预测模型
- 如何制定多站点多元空气污染时间序列预测的基线预测
- 如何开发时间序列预测的卷积神经网络模型
- 如何开发卷积神经网络用于多步时间序列预测
- 如何开发单变量时间序列预测的深度学习模型
- 如何开发 LSTM 模型用于家庭用电的多步时间序列预测
- 如何开发 LSTM 模型进行时间序列预测
- 如何开发多元多步空气污染时间序列预测的机器学习模型
- 如何开发多层感知器模型进行时间序列预测
- 如何开发人类活动识别时间序列分类的 RNN 模型
- 如何开始深度学习的时间序列预测(7 天迷你课程)
- 如何网格搜索深度学习模型进行时间序列预测
- 如何对单变量时间序列预测的网格搜索朴素方法
- 如何在 Python 中搜索 SARIMA 模型超参数用于时间序列预测
- 如何在 Python 中进行时间序列预测的网格搜索三次指数平滑
- 一个标准的人类活动识别问题的温和介绍
- 如何加载和探索家庭用电数据
- 如何加载,可视化和探索复杂的多变量多步时间序列预测数据集
- 如何从智能手机数据模拟人类活动
- 如何根据环境因素预测房间占用率
- 如何使用脑波预测人眼是开放还是闭合
- 如何在 Python 中扩展长短期内存网络的数据
- 如何使用 TimeseriesGenerator 进行 Keras 中的时间序列预测
- 基于机器学习算法的室内运动时间序列分类
- 用于时间序列预测的状态 LSTM 在线学习的不稳定性
- 用于罕见事件时间序列预测的 LSTM 模型体系结构
- 用于时间序列预测的 4 种通用机器学习数据变换
- Python 中长短期记忆网络的多步时间序列预测
- 家庭用电机器学习的多步时间序列预测
- Keras 中 LSTM 的多变量时间序列预测
- 如何开发和评估朴素的家庭用电量预测方法
- 如何为长短期记忆网络准备单变量时间序列数据
- 循环神经网络在时间序列预测中的应用
- 如何在 Python 中使用差异变换删除趋势和季节性
- 如何在 LSTM 中种子状态用于 Python 中的时间序列预测
- 使用 Python 进行时间序列预测的有状态和无状态 LSTM
- 长短时记忆网络在时间序列预测中的适用性
- 时间序列预测问题的分类
- Python 中长短期记忆网络的时间序列预测
- 基于 Keras 的 Python 中 LSTM 循环神经网络的时间序列预测
- Keras 中深度学习的时间序列预测
- 如何用 Keras 调整 LSTM 超参数进行时间序列预测
- 如何在时间序列预测训练期间更新 LSTM 网络
- 如何使用 LSTM 网络的 Dropout 进行时间序列预测
- 如何使用 LSTM 网络中的特征进行时间序列预测
- 如何在 LSTM 网络中使用时间序列进行时间序列预测
- 如何利用 LSTM 网络进行权重正则化进行时间序列预测
- Machine Learning Mastery 线性代数教程
- 机器学习数学符号的基础知识
- 用 NumPy 阵列轻松介绍广播
- 如何从 Python 中的 Scratch 计算主成分分析(PCA)
- 用于编码器审查的计算线性代数
- 10 机器学习中的线性代数示例
- 线性代数的温和介绍
- 用 NumPy 轻松介绍 Python 中的 N 维数组
- 机器学习向量的温和介绍
- 如何在 Python 中为机器学习索引,切片和重塑 NumPy 数组
- 机器学习的矩阵和矩阵算法简介
- 温和地介绍机器学习的特征分解,特征值和特征向量
- NumPy 对预期价值,方差和协方差的简要介绍
- 机器学习矩阵分解的温和介绍
- 用 NumPy 轻松介绍机器学习的张量
- 用于机器学习的线性代数中的矩阵类型简介
- 用于机器学习的线性代数备忘单
- 线性代数的深度学习
- 用于机器学习的线性代数(7 天迷你课程)
- 机器学习的线性代数
- 机器学习矩阵运算的温和介绍
- 线性代数评论没有废话指南
- 学习机器学习线性代数的主要资源
- 浅谈机器学习的奇异值分解
- 如何用线性代数求解线性回归
- 用于机器学习的稀疏矩阵的温和介绍
- 机器学习中向量规范的温和介绍
- 学习线性代数用于机器学习的 5 个理由
- Machine Learning Mastery LSTM 教程
- Keras中长短期记忆模型的5步生命周期
- 长短时记忆循环神经网络的注意事项
- CNN长短期记忆网络
- 逆向神经网络中的深度学习速成课程
- 可变长度输入序列的数据准备
- 如何用Keras开发用于Python序列分类的双向LSTM
- 如何开发Keras序列到序列预测的编码器 - 解码器模型
- 如何诊断LSTM模型的过度拟合和欠拟合
- 如何开发一种编码器 - 解码器模型,注重Keras中的序列到序列预测
- 编码器 - 解码器长短期存储器网络
- 神经网络中爆炸梯度的温和介绍
- 对时间反向传播的温和介绍
- 生成长短期记忆网络的温和介绍
- 专家对长短期记忆网络的简要介绍
- 在序列预测问题上充分利用LSTM
- 编辑器 - 解码器循环神经网络全局注意的温和介绍
- 如何利用长短时记忆循环神经网络处理很长的序列
- 如何在Python中对一个热编码序列数据
- 如何使用编码器 - 解码器LSTM来回显随机整数序列
- 具有注意力的编码器 - 解码器RNN体系结构的实现模式
- 学习使用编码器解码器LSTM循环神经网络添加数字
- 如何学习长短时记忆循环神经网络回声随机整数
- 具有Keras的长短期记忆循环神经网络的迷你课程
- LSTM自动编码器的温和介绍
- 如何用Keras中的长短期记忆模型进行预测
- 用Python中的长短期内存网络演示内存
- 基于循环神经网络的序列预测模型的简要介绍
- 深度学习的循环神经网络算法之旅
- 如何重塑Keras中长短期存储网络的输入数据
- 了解Keras中LSTM的返回序列和返回状态之间的差异
- RNN展开的温和介绍
- 5学习LSTM循环神经网络的简单序列预测问题的例子
- 使用序列进行预测
- 堆叠长短期内存网络
- 什么是教师强制循环神经网络?
- 如何在Python中使用TimeDistributed Layer for Long Short-Term Memory Networks
- 如何准备Keras中截断反向传播的序列预测
- 如何在使用LSTM进行训练和预测时使用不同的批量大小
- Machine Learning Mastery 机器学习算法教程
- 机器学习算法之旅
- 用于机器学习的装袋和随机森林集合算法
- 从头开始实施机器学习算法的好处
- 更好的朴素贝叶斯:从朴素贝叶斯算法中获取最多的12个技巧
- 机器学习的提升和AdaBoost
- 选择机器学习算法:Microsoft Azure的经验教训
- 机器学习的分类和回归树
- 什么是机器学习中的混淆矩阵
- 如何使用Python从头开始创建算法测试工具
- 通过创建机器学习算法的目标列表来控制
- 从头开始停止编码机器学习算法
- 在实现机器学习算法时,不要从开源代码开始
- 不要使用随机猜测作为基线分类器
- 浅谈机器学习中的概念漂移
- 温和介绍机器学习中的偏差 - 方差权衡
- 机器学习的梯度下降
- 机器学习算法如何工作(他们学习输入到输出的映射)
- 如何建立机器学习算法的直觉
- 如何实现机器学习算法
- 如何研究机器学习算法行为
- 如何学习机器学习算法
- 如何研究机器学习算法
- 如何研究机器学习算法
- 如何在Python中从头开始实现反向传播算法
- 如何用Python从头开始实现Bagging
- 如何用Python从头开始实现基线机器学习算法
- 如何在Python中从头开始实现决策树算法
- 如何用Python从头开始实现学习向量量化
- 如何利用Python从头开始随机梯度下降实现线性回归
- 如何利用Python从头开始随机梯度下降实现Logistic回归
- 如何用Python从头开始实现机器学习算法表现指标
- 如何在Python中从头开始实现感知器算法
- 如何在Python中从零开始实现随机森林
- 如何在Python中从头开始实现重采样方法
- 如何用Python从头开始实现简单线性回归
- 如何用Python从头开始实现堆栈泛化(Stacking)
- K-Nearest Neighbors for Machine Learning
- 学习机器学习的向量量化
- 机器学习的线性判别分析
- 机器学习的线性回归
- 使用梯度下降进行机器学习的线性回归教程
- 如何在Python中从头开始加载机器学习数据
- 机器学习的Logistic回归
- 机器学习的Logistic回归教程
- 机器学习算法迷你课程
- 如何在Python中从头开始实现朴素贝叶斯
- 朴素贝叶斯机器学习
- 朴素贝叶斯机器学习教程
- 机器学习算法的过拟合和欠拟合
- 参数化和非参数机器学习算法
- 理解任何机器学习算法的6个问题
- 在机器学习中拥抱随机性
- 如何使用Python从头开始扩展机器学习数据
- 机器学习的简单线性回归教程
- 有监督和无监督的机器学习算法
- 用于机器学习的支持向量机
- 在没有数学背景的情况下理解机器学习算法的5种技术
- 最好的机器学习算法
- 教程从头开始在Python中实现k-Nearest Neighbors
- 通过从零开始实现它们来理解机器学习算法(以及绕过坏代码的策略)
- 使用随机森林:在121个数据集上测试179个分类器
- 为什么从零开始实现机器学习算法
- Machine Learning Mastery 机器学习入门教程
- 机器学习入门的四个步骤:初学者入门与实践的自上而下策略
- 你应该培养的 5 个机器学习领域
- 一种选择机器学习算法的数据驱动方法
- 机器学习中的分析与数值解
- 应用机器学习是一种精英政治
- 机器学习的基本概念
- 如何成为数据科学家
- 初学者如何在机器学习中弄错
- 机器学习的最佳编程语言
- 构建机器学习组合
- 机器学习中分类与回归的区别
- 评估自己作为数据科学家并利用结果建立惊人的数据科学团队
- 探索 Kaggle 大师的方法论和心态:对 Diogo Ferreira 的采访
- 扩展机器学习工具并展示掌握
- 通过寻找地标开始机器学习
- 温和地介绍预测建模
- 通过提供结果在机器学习中获得梦想的工作
- 如何开始机器学习:自学蓝图
- 开始并在机器学习方面取得进展
- 应用机器学习的 Hello World
- 初学者如何使用小型项目开始机器学习并在 Kaggle 上进行竞争
- 我如何开始机器学习? (简短版)
- 我是如何开始机器学习的
- 如何在机器学习中取得更好的成绩
- 如何从在银行工作到担任 Target 的高级数据科学家
- 如何学习任何机器学习工具
- 使用小型目标项目深入了解机器学习工具
- 获得付费申请机器学习
- 映射机器学习工具的景观
- 机器学习开发环境
- 机器学习金钱
- 程序员的机器学习
- 机器学习很有意思
- 机器学习是 Kaggle 比赛
- 机器学习现在很受欢迎
- 机器学习掌握方法
- 机器学习很重要
- 机器学习 Q&amp; A:概念漂移,更好的结果和学习更快
- 缺乏自学机器学习的路线图
- 机器学习很重要
- 快速了解任何机器学习工具(即使您是初学者)
- 机器学习工具
- 找到你的机器学习部落
- 机器学习在一年
- 通过竞争一致的大师 Kaggle
- 5 程序员在机器学习中开始犯错误
- 哲学毕业生到机器学习从业者(Brian Thomas 采访)
- 机器学习入门的实用建议
- 实用机器学习问题
- 使用来自 UCI 机器学习库的数据集练习机器学习
- 使用秘籍的任何机器学习工具快速启动
- 程序员可以进入机器学习
- 程序员应该进入机器学习
- 项目焦点:Shashank Singh 的人脸识别
- 项目焦点:使用 Mahout 和 Konstantin Slisenko 进行堆栈交换群集
- 机器学习自学指南
- 4 个自学机器学习项目
- ÁlvaroLemos 如何在数据科学团队中获得机器学习实习
- 如何思考机器学习
- 现实世界机器学习问题之旅
- 有关机器学习的有用知识
- 如果我没有学位怎么办?
- 如果我不是一个优秀的程序员怎么办?
- 如果我不擅长数学怎么办?
- 为什么机器学习算法会处理以前从未见过的数据?
- 是什么阻碍了你的机器学习目标?
- 什么是机器学习?
- 机器学习适合哪里?
- 为什么要进入机器学习?
- 研究对您来说很重要的机器学习问题
- 你这样做是错的。为什么机器学习不必如此困难
- Machine Learning Mastery Sklearn 教程
- Scikit-Learn 的温和介绍:Python 机器学习库
- 使用 Python 管道和 scikit-learn 自动化机器学习工作流程
- 如何以及何时使用带有 scikit-learn 的校准分类模型
- 如何比较 Python 中的机器学习算法与 scikit-learn
- 用于机器学习开发人员的 Python 崩溃课程
- 用 scikit-learn 在 Python 中集成机器学习算法
- 使用重采样评估 Python 中机器学习算法的表现
- 使用 Scikit-Learn 在 Python 中进行特征选择
- Python 中机器学习的特征选择
- 如何使用 scikit-learn 在 Python 中生成测试数据集
- scikit-learn 中的机器学习算法秘籍
- 如何使用 Python 处理丢失的数据
- 如何开始使用 Python 进行机器学习
- 如何使用 Scikit-Learn 在 Python 中加载数据
- Python 中概率评分方法的简要介绍
- 如何用 Scikit-Learn 调整算法参数
- 如何在 Mac OS X 上安装 Python 3 环境以进行机器学习和深度学习
- 使用 scikit-learn 进行机器学习简介
- 从 shell 到一本带有 Fernando Perez 单一工具的书的 IPython
- 如何使用 Python 3 为机器学习开发创建 Linux 虚拟机
- 如何在 Python 中加载机器学习数据
- 您在 Python 中的第一个机器学习项目循序渐进
- 如何使用 scikit-learn 进行预测
- 用于评估 Python 中机器学习算法的度量标准
- 使用 Pandas 为 Python 中的机器学习准备数据
- 如何使用 Scikit-Learn 为 Python 机器学习准备数据
- 项目焦点:使用 Artem Yankov 在 Python 中进行事件推荐
- 用于机器学习的 Python 生态系统
- Python 是应用机器学习的成长平台
- Python 机器学习书籍
- Python 机器学习迷你课程
- 使用 Pandas 快速和肮脏的数据分析
- 使用 Scikit-Learn 重新调整 Python 中的机器学习数据
- 如何以及何时使用 ROC 曲线和精确调用曲线进行 Python 分类
- 使用 scikit-learn 在 Python 中保存和加载机器学习模型
- scikit-learn Cookbook 书评
- 如何使用 Anaconda 为机器学习和深度学习设置 Python 环境
- 使用 scikit-learn 在 Python 中进行 Spot-Check 分类机器学习算法
- 如何在 Python 中开发可重复使用的抽样检查算法框架
- 使用 scikit-learn 在 Python 中进行 Spot-Check 回归机器学习算法
- 使用 Python 中的描述性统计来了解您的机器学习数据
- 使用 OpenCV,Python 和模板匹配来播放“哪里是 Waldo?”
- 使用 Pandas 在 Python 中可视化机器学习数据
- Machine Learning Mastery 统计学教程
- 浅谈计算正态汇总统计量
- 非参数统计的温和介绍
- Python中常态测试的温和介绍
- 浅谈Bootstrap方法
- 浅谈机器学习的中心极限定理
- 浅谈机器学习中的大数定律
- 机器学习的所有统计数据
- 如何计算Python中机器学习结果的Bootstrap置信区间
- 浅谈机器学习的Chi-Squared测试
- 机器学习的置信区间
- 随机化在机器学习中解决混杂变量的作用
- 机器学习中的受控实验
- 机器学习统计学速成班
- 统计假设检验的关键值以及如何在Python中计算它们
- 如何在机器学习中谈论数据(统计学和计算机科学术语)
- Python中数据可视化方法的简要介绍
- Python中效果大小度量的温和介绍
- 估计随机机器学习算法的实验重复次数
- 机器学习评估统计的温和介绍
- 如何计算Python中的非参数秩相关性
- 如何在Python中计算数据的5位数摘要
- 如何在Python中从头开始编写学生t检验
- 如何在Python中生成随机数
- 如何转换数据以更好地拟合正态分布
- 如何使用相关来理解变量之间的关系
- 如何使用统计信息识别数据中的异常值
- 用于Python机器学习的随机数生成器简介
- k-fold交叉验证的温和介绍
- 如何计算McNemar的比较两种机器学习量词的测试
- Python中非参数统计显着性测试简介
- 如何在Python中使用参数统计显着性测试
- 机器学习的预测间隔
- 应用统计学与机器学习的密切关系
- 如何使用置信区间报告分类器表现
- 统计数据分布的简要介绍
- 15 Python中的统计假设检验(备忘单)
- 统计假设检验的温和介绍
- 10如何在机器学习项目中使用统计方法的示例
- Python中统计功效和功耗分析的简要介绍
- 统计抽样和重新抽样的简要介绍
- 比较机器学习算法的统计显着性检验
- 机器学习中统计容差区间的温和介绍
- 机器学习统计书籍
- 评估机器学习模型的统计数据
- 机器学习统计(7天迷你课程)
- 用于机器学习的简明英语统计
- 如何使用统计显着性检验来解释机器学习结果
- 什么是统计(为什么它在机器学习中很重要)?
- Machine Learning Mastery 时间序列入门教程
- 如何在 Python 中为时间序列预测创建 ARIMA 模型
- 用 Python 进行时间序列预测的自回归模型
- 如何回溯机器学习模型的时间序列预测
- Python 中基于时间序列数据的基本特征工程
- R 的时间序列预测热门书籍
- 10 挑战机器学习时间序列预测问题
- 如何将时间序列转换为 Python 中的监督学习问题
- 如何将时间序列数据分解为趋势和季节性
- 如何用 ARCH 和 GARCH 模拟波动率进行时间序列预测
- 如何将时间序列数据集与 Python 区分开来
- Python 中时间序列预测的指数平滑的温和介绍
- 用 Python 进行时间序列预测的特征选择
- 浅谈自相关和部分自相关
- 时间序列预测的 Box-Jenkins 方法简介
- 用 Python 简要介绍时间序列的时间序列预测
- 如何使用 Python 网格搜索 ARIMA 模型超参数
- 如何在 Python 中加载和探索时间序列数据
- 如何使用 Python 对 ARIMA 模型进行手动预测
- 如何用 Python 进行时间序列预测的预测
- 如何使用 Python 中的 ARIMA 进行样本外预测
- 如何利用 Python 模拟残差错误来纠正时间序列预测
- 使用 Python 进行数据准备,特征工程和时间序列预测的移动平均平滑
- 多步时间序列预测的 4 种策略
- 如何在 Python 中规范化和标准化时间序列数据
- 如何利用 Python 进行时间序列预测的基线预测
- 如何使用 Python 对时间序列预测数据进行功率变换
- 用于时间序列预测的 Python 环境
- 如何重构时间序列预测问题
- 如何使用 Python 重新采样和插值您的时间序列数据
- 用 Python 编写 SARIMA 时间序列预测
- 如何在 Python 中保存 ARIMA 时间序列预测模型
- 使用 Python 进行季节性持久性预测
- 基于 ARIMA 的 Python 历史规模敏感性预测技巧分析
- 简单的时间序列预测模型进行测试,这样你就不会欺骗自己
- 标准多变量,多步骤和多站点时间序列预测问题
- 如何使用 Python 检查时间序列数据是否是固定的
- 使用 Python 进行时间序列数据可视化
- 7 个机器学习的时间序列数据集
- 时间序列预测案例研究与 Python:波士顿每月武装抢劫案
- Python 的时间序列预测案例研究:巴尔的摩的年度用水量
- 使用 Python 进行时间序列预测研究:法国香槟的月销售额
- 使用 Python 的置信区间理解时间序列预测不确定性
- 11 Python 中的经典时间序列预测方法(备忘单)
- 使用 Python 进行时间序列预测表现测量
- 使用 Python 7 天迷你课程进行时间序列预测
- 时间序列预测作为监督学习
- 什么是时间序列预测?
- 如何使用 Python 识别和删除时间序列数据的季节性
- 如何在 Python 中使用和删除时间序列数据中的趋势信息
- 如何在 Python 中调整 ARIMA 参数
- 如何用 Python 可视化时间序列残差预测错误
- 白噪声时间序列与 Python
- 如何通过时间序列预测项目
- Machine Learning Mastery XGBoost 教程
- 通过在 Python 中使用 XGBoost 提前停止来避免过度拟合
- 如何在 Python 中调优 XGBoost 的多线程支持
- 如何配置梯度提升算法
- 在 Python 中使用 XGBoost 进行梯度提升的数据准备
- 如何使用 scikit-learn 在 Python 中开发您的第一个 XGBoost 模型
- 如何在 Python 中使用 XGBoost 评估梯度提升模型
- 在 Python 中使用 XGBoost 的特征重要性和特征选择
- 浅谈机器学习的梯度提升算法
- 应用机器学习的 XGBoost 简介
- 如何在 macOS 上为 Python 安装 XGBoost
- 如何在 Python 中使用 XGBoost 保存梯度提升模型
- 从梯度提升开始,比较 165 个数据集上的 13 种算法
- 在 Python 中使用 XGBoost 和 scikit-learn 进行随机梯度提升
- 如何使用 Amazon Web Services 在云中训练 XGBoost 模型
- 在 Python 中使用 XGBoost 调整梯度提升的学习率
- 如何在 Python 中使用 XGBoost 调整决策树的数量和大小
- 如何在 Python 中使用 XGBoost 可视化梯度提升决策树
- 在 Python 中开始使用 XGBoost 的 7 步迷你课程