# 一个标准的人类活动识别问题的温和介绍
> 原文: [https://machinelearningmastery.com/how-to-load-and-explore-a-standard-human-activity-recognition-problem/](https://machinelearningmastery.com/how-to-load-and-explore-a-standard-human-activity-recognition-problem/)
人类活动识别是将由专用线束或智能电话记录的加速度计数据序列分类为已知的明确定义的运动的问题。
鉴于每秒产生大量观测结果,观测的时间性质以及缺乏将加速度计数据与已知运动联系起来的明确方法,这是一个具有挑战性的问题。
该问题的经典方法涉及来自基于固定大小窗口的时间序列数据的手工制作特征和训练机器学习模型,例如决策树的集合。困难在于此功能工程需要该领域的深厚专业知识。
最近,诸如循环神经网络和一维卷积神经网络或 CNN 的深度学习方法已经被证明在很少或没有数据特征工程的情况下提供具有挑战性的活动识别任务的最新结果。
在本教程中,您将发现用于时间序列分类的标准人类活动识别数据集以及如何在建模之前探索数据集。
完成本教程后,您将了解:
* 如何加载和准备人类活动识别时间序列分类数据。
* 如何探索和可视化时间序列分类数据,以生成建模的想法。
* 一套用于构建问题,准备数据,建模和评估人类活动识别模型的方法。
让我们开始吧。
![A Gentle Introduction to a Standard Human Activity Recognition Problem](https://img.kancloud.cn/83/8a/838a9ed35554557c7b58cbd78aca4f4c_640x480.jpg)
标准人类活动识别问题的温和介绍
[tgraham](https://www.flickr.com/photos/tgraham/2546626192/) 的照片,保留一些权利。
## 教程概述
本教程分为 8 个部分;他们是:
1. 人类活动识别
2. 问题描述
3. 加载数据集
4. 绘制单个主题的跟踪
5. 绘制总活动持续时间
6. 绘制每个主题的痕迹
7. 绘制痕量观测的直方图
8. 建模问题的方法
## 人类活动识别
[人类活动识别](https://en.wikipedia.org/wiki/Activity_recognition)或简称 HAR,是基于使用传感器的移动痕迹来预测人正在做什么的问题。
运动通常是正常的室内活动,例如站立,坐着,跳跃和上楼梯。传感器通常位于主体上,例如智能手机或背心,并且经常以三维(x,y,z)记录加速度计数据。
这个想法是,一旦主体的活动被识别和知道,智能计算机系统就可以提供帮助。
这是一个具有挑战性的问题,因为没有明确的分析方法将传感器数据与一般方式的特定动作联系起来。由于收集了大量的传感器数据(例如,每秒数十或数百次观察),并且在开发预测模型时从这些数据中经典使用手工制作的特征和启发式,因此在技术上具有挑战性。
最近,深度学习方法已经在 HAR 问题上取得了成功,因为它们能够自动学习更高阶的特征。
> 基于传感器的活动识别从大量低水平传感器读数中寻找关于人类活动的深刻的高级知识。传统的模式识别方法在过去几年中取得了巨大的进步。然而,这些方法通常严重依赖于启发式手工特征提取,这可能会妨碍它们的泛化表现。 [...]最近,深度学习的最新进展使得可以执行自动高级特征提取,从而在许多领域实现了有希望的表现。
- [基于传感器的活动识别深度学习:调查](https://arxiv.org/abs/1707.03502)
## 问题描述
收集数据集“来自单个胸部安装的加速度计数据集的 _ 活动识别”并由 Casale,Pujol 等人提供。来自西班牙巴塞罗那大学。_
它可以从 UCI 机器学习库免费获得:
* [来自单个胸部加速计数据集](https://archive.ics.uci.edu/ml/datasets/Activity+Recognition+from+Single+Chest-Mounted+Accelerometer),UCI 机器学习库的活动识别。
在 2011 年论文“[使用可穿戴设备的加速度计数据](https://link.springer.com/chapter/10.1007/978-3-642-21257-4_36)[人类活动识别](https://link.springer.com/chapter/10.1007/978-3-642-21257-4_36)”中描述并使用该数据集作为序列分类模型的基础。
数据集由来自 15 个不同科目的未校准加速度计数据组成,每个科目执行 7 项活动。每个受试者佩戴定制的胸部加速度计,并以 52Hz(每秒 52 次观察)收集数据。
![Photographs of the custom chest-mounted systems warn by each subject](https://img.kancloud.cn/33/f8/33f8280b7de322509d45e9333ce4e784_1408x472.jpg)
每个主题佩戴的定制胸部系统的照片。
取自“使用可穿戴设备从加速度计数据中识别人体活动”。
每个受试者以连续的顺序进行和记录七项活动。
所开展的具体活动包括:
* 1:在计算机工作(workingPC)。
* 2:站起来,走路,上下楼梯。
* 3:站立(站立)。
* 4:散步(醒来)。
* 5:上/下楼梯(楼梯)。
* 6:与某人散步和交谈。
* 7:站立时说话(说话)。
该论文使用了数据的一个子集,特别是 14 个主题和 5 个活动。目前尚不清楚为什么没有使用其他 2 项活动(2 和 6)。
> 数据来自 14 名测试者,3 名女性和 11 名年龄在 27 岁至 35 岁之间的男性。[...]所收集的数据由上下楼梯步行 33 分钟,步行 82 分钟,说话 115 分钟组成。保持站立的分钟数和 86 分钟的电脑工作时间。
- [使用可穿戴设备从加速计数据识别人类活动](https://link.springer.com/chapter/10.1007/978-3-642-21257-4_36),2011。
本文的重点是从数据开发手工制作的功能,以及机器学习算法的开发。
数据被分成一秒钟的观察窗口(52),窗口之间有 50%的重叠。
> 我们使用 52 个样本的窗口从数据中提取特征,对应于 1 秒的加速度计数据,窗口之间有 50%的重叠。从每个窗口,我们建议提取以下特征:窗口中加速度积分的均方根值,以及 Minmax 和的平均值。 [...]尽管如此,为了完成这组特征,我们添加了已被证明对人类活动识别有用的特征,如:平均值,标准偏差,偏度,峰度,加速度计轴的每对成对之间的相关性(不包括幅度) ,七级小波分解系数的能量。通过这种方式,我们获得了 319 维特征向量。
- [使用可穿戴设备从加速计数据识别人类活动](https://link.springer.com/chapter/10.1007/978-3-642-21257-4_36),2011。
使用 5 倍交叉验证拟合和评估一套机器学习模型,并获得 94%的准确度。
![Confusion Matrix of Random Forest evaluated on the dataset](https://img.kancloud.cn/89/02/89024d5ec4d02586b20dffcb2a868ef5_988x350.jpg)
随机森林的混淆矩阵在数据集上进行评估。
取自“使用可穿戴设备从加速度计数据中识别人体活动”。
## 加载数据集
数据集可以直接从 UCI 机器学习库下载。
* [下载数据集](https://archive.ics.uci.edu/ml/machine-learning-databases/00287/Activity%20Recognition%20from%20Single%20Chest-Mounted%20Accelerometer.zip)
将数据集解压缩到名为“ _HAR_ ”的新目录中。
该目录包含 CSV 文件列表,每个主题一个(1-15)和自述文件。
每个文件包含 5 列,行号,x,y 和 z 加速度计读数以及 0 到 7 的类号,其中类 0 表示“无活动”,类 1-7 对应于上一节中列出的活动。
例如,下面是文件“ _1.csv_ ”的前 5 行:
```py
0,1502,2215,2153,1
1,1667,2072,2047,1
2,1611,1957,1906,1
3,1601,1939,1831,1
4,1643,1965,1879,1
...
```
首先,我们可以将每个文件作为单个 NumPy 数组加载并删除第一列。
下面名为 _load_dataset()_ 的函数将加载 HAR 目录中的所有 CSV 文件,删除第一列并返回 15 个 NumPy 数组的列表。
```py
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
```
下面列出了完整的示例。
```py
# load dataset
from os import listdir
from pandas import read_csv
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
# load
subjects = load_dataset()
print('Loaded %d subjects' % len(subjects))
```
运行该示例将加载所有数据并打印已加载主题的数量。
```py
Loaded 15 subjects
```
注意,目录中的文件是按文件顺序导航的,这可能与主题顺序不同,例如 _10.csv_ 以文件顺序出现在 _2.csv_ 之前。我相信这在本教程中无关紧要。
现在我们知道了如何加载数据,我们可以通过一些可视化来探索它。
## 绘制单个主题的跟踪
良好的第一个可视化是绘制单个主题的数据。
我们可以为给定主题的每个变量创建一个图形,包括 x,y 和 z 加速度计数据,以及相关的类类值。
下面的函数 _plot_subject()_ 将绘制给定主题的数据。
```py
# plot the x, y, z acceleration and activities for a single subject
def plot_subject(subject):
pyplot.figure()
# create a plot for each column
for col in range(subject.shape[1]):
pyplot.subplot(subject.shape[1], 1, col+1)
pyplot.plot(subject[:,col])
pyplot.show()
```
我们可以将它与上一节中的数据加载结合起来,并绘制第一个加载主题的数据。
```py
# plot a subject
from os import listdir
from pandas import read_csv
from matplotlib import pyplot
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
# plot the x, y, z acceleration and activities for a single subject
def plot_subject(subject):
pyplot.figure()
# create a plot for each column
for col in range(subject.shape[1]):
pyplot.subplot(subject.shape[1], 1, col+1)
pyplot.plot(subject[:,col])
pyplot.show()
# load
subjects = load_dataset()
print('Loaded %d subjects' % len(subjects))
# plot activities for a single subject
plot_subject(subjects[0])
```
运行该示例为第一个加载主题的每个变量创建一个线图。
我们可以在序列的开头看到一些非常大的运动,这可能是一个可以被删除的异常或异常行为。
我们还可以看到主题多次执行某些操作。例如,仔细查看类变量的图(底部图)表明受试者按以下顺序执行活动:1,2,0,3,0,4,3,5,3,6,7。活动 3 进行了两次。
![Line plots of x, y, z and class for the first loaded subject.](https://img.kancloud.cn/1c/3b/1c3b364e71fd52d7ca69d95b19ed4ff6_1280x960.jpg)
第一个加载主题的 x,y,z 和类的线图。
我们可以重新运行此代码并绘制第二个加载的主题(可能是 _10.csv_ )。
```py
...
# plot activities for a single subject
plot_subject(subjects[1])
```
运行该示例会创建一个类似的图。
我们可以看到更多细节,这表明在上一个情节开头看到的大异常值可能是从该主题的痕迹中清除了值。
我们看到类似的活动序列,活动 3 再次发生两次。
我们还可以看到,某些活动的执行时间比其他活动长得多。这可能会影响模型区分活动的能力,例如:两个受试者的活动 3(站立)相对于所进行的其他活动具有非常少的数据。
![Line plots of x, y, z and class for the second loaded subject.](https://img.kancloud.cn/73/91/739115e0de8a5fdfe850ede0035dee8d_1280x960.jpg)
第二个加载主题的 x,y,z 和类的线图。
## 绘制总活动持续时间
上一节提出了一个问题,即我们对所有主题的每项活动进行了多长时间或多少次观察。
如果一项活动的数据多于另一项活动,这可能很重要,这表明不太好的活动可能难以建模。
我们可以通过按活动和主题对所有观察进行分组来研究这一点,并绘制分布图。这将了解每个主题在跟踪过程中花费多长时间执行每项活动。
首先,我们可以为每个主题分组活动。
我们可以通过为每个主题创建字典并按活动存储所有跟踪数据来完成此操作。下面的 _group_by_activity()_ 功能将为每个主题执行此分组。
```py
# returns a list of dict, where each dict has one sequence per activity
def group_by_activity(subjects, activities):
grouped = [{a:s[s[:,-1]==a] for a in activities} for s in subjects]
return grouped
```
接下来,我们可以计算每个主题的每个活动的总持续时间。
我们知道加速度计数据是以 52Hz 记录的,因此我们可以将每个活动的每个跟踪的长度除以 52,以便以秒为单位总结持续时间。
以下名为 _plot_durations()_ 的函数将计算每个主题的每个活动的持续时间,并将结果绘制为箱线图。盒状和须状图是总结每个活动的 15 个持续时间的有用方式,因为它描述了持续时间的扩展而不假设分布。
```py
# calculate total duration in sec for each activity per subject and plot
def plot_durations(grouped, activities):
# calculate the lengths for each activity for each subject
freq = 52
durations = [[len(s[a])/freq for s in grouped] for a in activities]
pyplot.boxplot(durations, labels=activities)
pyplot.show()
```
下面列出了绘制活动持续时间分布的完整示例。
```py
# durations by activity
from os import listdir
from pandas import read_csv
from matplotlib import pyplot
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
# returns a list of dict, where each dict has one sequence per activity
def group_by_activity(subjects, activities):
grouped = [{a:s[s[:,-1]==a] for a in activities} for s in subjects]
return grouped
# calculate total duration in sec for each activity per subject and plot
def plot_durations(grouped, activities):
# calculate the lengths for each activity for each subject
freq = 52
durations = [[len(s[a])/freq for s in grouped] for a in activities]
pyplot.boxplot(durations, labels=activities)
pyplot.show()
# load
subjects = load_dataset()
print('Loaded %d subjects' % len(subjects))
# group traces by activity for each subject
activities = [i for i in range(0,8)]
grouped = group_by_activity(subjects, activities)
# plot durations
plot_durations(grouped, activities)
```
运行该示例绘制了每个主题的活动持续时间的分布。
我们可以看到,对于活动 0(无活动),2(站立,行走和上下楼梯),5(上/下楼梯)和 6(步行和说话)的观察相对较少。
这可能表明为什么活动 2 和 6 被排除在原始论文的实验之外。
我们还可以看到每个主题在活动 1(站立,行走和上下楼梯)和活动 7(站立时说话)上花费了大量时间。这些活动可能过多。准备模型数据可能有益于对这些活动进行欠采样或对其他活动进行采样。
![Boxplot of the distribution of activity durations per subject](https://img.kancloud.cn/0d/26/0d26937889f2fd1231390bef758f2619_1280x960.jpg)
每个受试者活动持续时间分布的箱线图
## 绘制每个主题的痕迹
接下来,查看每个主题的跟踪数据可能会很有趣。
一种方法是在单个图形上绘制单个主题的所有迹线,然后垂直排列所有图形。这将允许跨主题和主题内的痕迹进行比较。
以下名为 _plot_subjects()_ 的函数将在单独的图上绘制 15 个主题中每个主题的加速度计数据。每个 x,y 和 z 数据的迹线分别绘制为橙色,绿色和蓝色。
```py
# plot the x, y, z acceleration for each subject
def plot_subjects(subjects):
pyplot.figure()
# create a plot for each subject
for i in range(len(subjects)):
pyplot.subplot(len(subjects), 1, i+1)
# plot each of x, y and z
for j in range(subjects[i].shape[1]-1):
pyplot.plot(subjects[i][:,j])
pyplot.show()
```
下面列出了完整的示例。
```py
# plot accelerometer data for all subjects
from os import listdir
from pandas import read_csv
from matplotlib import pyplot
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
# plot the x, y, z acceleration for each subject
def plot_subjects(subjects):
pyplot.figure()
# create a plot for each subject
for i in range(len(subjects)):
pyplot.subplot(len(subjects), 1, i+1)
# plot each of x, y and z
for j in range(subjects[i].shape[1]-1):
pyplot.plot(subjects[i][:,j])
pyplot.show()
# load
subjects = load_dataset()
print('Loaded %d subjects' % len(subjects))
# plot trace data for each subject
plot_subjects(subjects)
```
运行该示例将创建一个包含 15 个图的图形。
我们正在研究一般而非具体的趋势。
* 我们可以看到很多橙色和绿色以及非常小的蓝色,这表明 z 数据在建模这个问题时可能不太重要。
* 我们可以看到跟踪数据在 x 和 y 跟踪的相同时间发生相同的一般变化,这表明可能只需要一个数据轴来拟合预测模型。
* 我们可以看到每个受试者在序列开始时(前 60 秒)在迹线中具有相同的大尖峰,可能与实验的启动有关。
* 我们可以在跟踪数据中看到跨主题的类似结构,尽管某些迹线看起来比其他迹线更柔和,例如比较第一和第二个图上的幅度。
每个受试者可具有不同的完整迹线长度,因此通过 x 轴的直接比较可能是不合理的(例如,同时执行类似的活动)。无论如何,我们并不真正关心这个问题。
![Line plots of accelerometer trace data for all 15 subjects.](https://img.kancloud.cn/37/f6/37f66d3ea0518324f6e61cdfb44b8090_1280x960.jpg)
所有 15 名受试者的加速度计跟踪数据的线图。
痕迹似乎具有相同的一般比例,但受试者之间的幅度差异表明,每个受试者重新缩放数据可能比跨受试者缩放更有意义。
这对于训练数据可能是有意义的,但对于缩放测试对象的数据可能在方法上具有挑战性。它需要或假设在预测活动之前可以获得整个跟踪。这对于模型的离线使用很好,但不能在线使用模型。它还表明,使用预先校准的跟踪数据(例如以固定规模进入的数据)可以更容易地在线使用模型。
## 绘制痕量观测的直方图
上一节中关于跨不同主题的显着不同尺度可能性的观点可能会给这个数据集的建模带来挑战。
我们可以通过绘制加速度计数据的每个轴的观测分布的直方图来探索这一点。
与上一节一样,我们可以为每个主题创建一个绘图,然后将所有主题的绘图与相同的 x 轴垂直对齐,以帮助发现展开的明显差异。
更新的 _plot_subjects()_ 函数用于绘制直方图而不是线图,如下所示。 _hist()_ 函数用于为加速度计数据的每个轴创建直方图,并且使用大量箱(100)来帮助展开图中的数据。子图也都共享相同的 x 轴以帮助进行比较。
```py
# plot the x, y, z acceleration for each subject
def plot_subjects(subjects):
pyplot.figure()
# create a plot for each subject
xaxis = None
for i in range(len(subjects)):
ax = pyplot.subplot(len(subjects), 1, i+1, sharex=xaxis)
if i == 0:
xaxis = ax
# plot a histogram of x data
for j in range(subjects[i].shape[1]-1):
pyplot.hist(subjects[i][:,j], bins=100)
pyplot.show()
```
下面列出了完整的示例
```py
# plot histograms of trace data for all subjects
from os import listdir
from pandas import read_csv
from matplotlib import pyplot
# load sequence for each subject, returns a list of numpy arrays
def load_dataset(prefix=''):
subjects = list()
directory = prefix + 'HAR/'
for name in listdir(directory):
filename = directory + '/' + name
if not filename.endswith('.csv'):
continue
df = read_csv(filename, header=None)
# drop row number
values = df.values[:, 1:]
subjects.append(values)
return subjects
# plot the x, y, z acceleration for each subject
def plot_subjects(subjects):
pyplot.figure()
# create a plot for each subject
xaxis = None
for i in range(len(subjects)):
ax = pyplot.subplot(len(subjects), 1, i+1, sharex=xaxis)
if i == 0:
xaxis = ax
# plot a histogram of x data
for j in range(subjects[i].shape[1]-1):
pyplot.hist(subjects[i][:,j], bins=100)
pyplot.show()
# load
subjects = load_dataset()
print('Loaded %d subjects' % len(subjects))
# plot trace data for each subject
plot_subjects(subjects)
```
运行该示例将创建一个包含 15 个图的单个图形,每个图形对应一个图形,以及每个图表的 3 个加速度计数据的 3 个直方图。
蓝色,橙色和绿色三种颜色代表 x,y 和 z 轴。
该图表明加速度计的每个轴的分布是高斯分布或者非常接近高斯分布。这可以帮助沿着加速度计数据的每个轴进行简单的离群值检测和移除。
该图确实有助于显示主题内的分布与主题之间的分布差异。
在每个主题内,共同模式是 x(蓝色)和 z(绿色)一起分组到左边,y 数据(橙色)分开到右边。 y 的分布通常更尖锐,因为 x 和 z 的分布更平坦。
在整个主题中,我们可以看到一般的聚类值约为 2,000(无论单位是多少),尽管有很多差异。这种显着的分布差异确实表明在执行任何跨主题建模之前,需要至少标准化(转换为零均值和单位方差)每个轴和每个主体的数据。
![Histograms of accelerometer data for each subject](https://img.kancloud.cn/a4/04/a40492994d19103a01b25b6b63c632ae_1280x960.jpg)
每个受试者的加速度计数据的直方图
## 建模问题的方法
在本节中,我们将基于对数据集的上述探索,探索针对该问题的数据准备和建模的一些想法和方法。
这些可能有助于特别是对该数据集建模,但也有助于人类活动识别,甚至是一般的时间序列分类问题。
### 问题框架
尽管所有方法都围绕时间序列分类的思想,但有许多方法可以将数据构建为预测建模问题。
要考虑的两种主要方法是:
* **每个受试者**:每个受试者的痕量数据的模型活动分类。
* **交叉主题**:跨主题的跟踪数据的模型活动分类。
后者,交叉主题,是更理想的,但如果目标是深刻理解给定的主题,例如前者也可能是有趣的。家中的个性化模型。
在建模过程中构建数据的两种主要方法包括:
* **分段活动**:跟踪数据可以按活动预先分段,并且可以针对每个活动对整个跟踪或其特征进行训练的模型。
* **滑动窗口**:每个主体的连续轨迹被分成滑动窗口,有或没有重叠,窗口的每个活动的模式被视为要预测的活动。
就模型的实际使用而言,前一种方法可能不太现实,但可能是更容易建模的问题。后者是原始论文中使用的问题的框架,其中制备了具有 50%重叠的 1 秒窗口。
我没有看到问题框架中的重叠的好处,除了加倍训练数据集的大小,这可能有益于深度神经网络。事实上,我预计它可能会导致过度模型。
### 数据准备
数据表明在建模过程中可能有用的一些准备方案:
* 将加速度计观测值下采样到几分之一秒可能是有帮助的,例如, 1 / 4,1 / 2,1,2 秒。
* 截断原始数据的前 60 秒可能是谨慎的,因为它似乎与实验的启动有关,并且所有主体当时正在执行活动 1(在计算机上工作)。
* 使用简单的离群值检测和去除方法(例如,每个轴的平均值的标准差的 3 到 4 倍的值)可能是有用的。
* 也许删除具有相对较少观察的活动将是明智的,或者导致对预测方法(例如,活动 0,2 和 6)的更公平的评估。
* 也许通过对代表性不足的活动进行过度采样或对训练数据集中过度代表的活动进行抽样调整来重新平衡活动可能有助于建模。
* 尝试不同的窗口尺寸将是有趣的(例如 1,5,10,30 秒),尤其是在对观察的下采样的确证中。
* 对于任何跨主题模型,几乎肯定需要标准化每个主题的数据。在每个受试者标准化后对受试者的数据进行标准化也可能是有用的。
如前一节所述,每个主题的数据标准化确实引入了方法问题,并且无论如何都可以使用,因为需要来自原始硬件系统的校准观察。
### 问题建模
我建议使用神经网络来探索这个问题。
与使用特征工程和特定于域的手工制作特征的论文中使用的方法不同,直接对原始数据进行建模(下采样或其他方式)将是有用且通用的。
首先,我建议使用强大的方法(如随机森林或梯度增强机器)发现表现基线。然后探索特别适合时间序列分类问题的神经网络方法。
可能适合的两种类型的神经网络架构是:
* 卷积神经网络或 CNN。
* 循环神经网络或 RNN,特别是长短期记忆或 LSTM。
第三个是两者的混合:
* CNN LSTMs。
CNN 能够从输入序列中提取特征,例如输入加速度计数据的窗口。诸如 LSTM 之类的 RNN 能够直接从长序列的输入数据中学习,并学习数据中的长期关系。
我希望序列数据中几乎没有因果关系,除了每个主题看起来他们正在执行相同的人为行动序列,我们不想学习。朴素地,这可能表明 CNN 更适合于在给定一系列观察到的加速度计数据的情况下预测活动。
一维 CNN 已广泛用于此类问题,其中一个通道用于加速度计数据的每个轴。一个很好的简单起点是直接在序列数据的窗口上拟合 CNN 模型。这是 2014 年题为“[使用移动传感器进行人类活动识别的卷积神经网络](https://ieeexplore.ieee.org/abstract/document/7026300/)”的论文中描述的方法,并且从下面的图中可以看出更清楚。
![Example of 1D CNN Architecture for Human Activity Recognition](https://img.kancloud.cn/0b/e5/0be5eb2d689add1cc84ad055aaf1d7e4_908x816.jpg)
用于人类活动识别的 1D CNN 架构的示例
取自“使用移动传感器的用于人类活动识别的卷积神经网络”。
CNN LSTM 可用于 CNN 学习观察子序列的表示,然后 LSTM 学习这些子序列。
例如,CNN 可以提取一秒钟的加速度计数据,然后可以重复 30 秒,以向 LSTM 提供 30 个 CNN 解释数据的时间步长。
我希望这三个方法对这个问题和类似的问题都很有意思。
### 模型评估
我不认为窗口的重叠是有用的,并且实际上如果在交叉验证期间跟踪数据的部分在训练和测试数据集中都可用,则实际上可能导致轻微的误导性结果。然而,它会增加训练数据的数量。
我认为重要的是将数据暴露给模型,同时保持观察的时间顺序。对于给定主题,来自单个活动的多个窗口可能看起来相似,并且随机改组和分离窗口以训练测试数据可能导致误导结果。
我不建议在原始论文中使用随机改组的 k-fold 交叉验证。我希望这会带来乐观的结果,每个 15 个主题的痕迹中有一秒钟的数据窗口混合在一起进行训练和测试。
也许对这些数据中的模型进行公平评估将是按主题使用留一法交叉验证或 LOOCV。这是模型适合前 14 个主题并在第 15 个主题的所有窗口上进行评估的地方。重复该过程,其中每个受试者有机会被用作保持测试数据集。
按主题分割数据集避免了在模型评估期间与各个窗口的时间排序相关的任何问题,因为所有窗口都将保证新的/看不见的数据。
如果你探索这些建模思想中的任何一个,我很想知道。
## 进一步阅读
如果您希望深入了解,本节将提供有关该主题的更多资源。
### 文件
* [使用加速度计进行活动识别的综合研究](http://mdpi.com/2227-9709/5/2/27),2018
* [基于传感器的活动识别深度学习:调查](https://arxiv.org/abs/1707.03502),2017。
* [使用可穿戴设备从加速度计数据识别人类活动](https://link.springer.com/chapter/10.1007/978-3-642-21257-4_36),2011。
* [用于使用移动传感器识别人类活动的卷积神经网络](https://ieeexplore.ieee.org/abstract/document/7026300/),2014。
### API
* [sklearn.preprocessing.StandardScaler API](http://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.StandardScaler.html)
* [sklearn.preprocessing.MinMaxScaler API](http://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.MinMaxScaler.html)
* [keras.utils.to_categorical API](https://keras.io/utils/#to_categorical)
* [Keras 卷积层](https://keras.io/layers/convolutional/)
### 用品
* [活动识别,维基百科](https://en.wikipedia.org/wiki/Activity_recognition)
* [来自单个胸部加速计数据集](https://archive.ics.uci.edu/ml/datasets/Activity+Recognition+from+Single+Chest-Mounted+Accelerometer),UCI 机器学习库的活动识别。
## 摘要
在本教程中,您发现了一个用于时间序列分类的标准人类活动识别数据集。
具体来说,你学到了:
* 如何加载和准备人类活动识别时间序列分类数据。
* 如何探索和可视化时间序列分类数据,以生成建模的想法。
* 一套用于构建问题,准备数据,建模和评估人类活动识别模型的方法。
你有任何问题吗?
在下面的评论中提出您的问题,我会尽力回答。
- Machine Learning Mastery 应用机器学习教程
- 5竞争机器学习的好处
- 过度拟合的简单直觉,或者为什么测试训练数据是一个坏主意
- 特征选择简介
- 应用机器学习作为一个搜索问题的温和介绍
- 为什么应用机器学习很难
- 为什么我的结果不如我想的那么好?你可能过度拟合了
- 用ROC曲线评估和比较分类器表现
- BigML评论:发现本机学习即服务平台的聪明功能
- BigML教程:开发您的第一个决策树并进行预测
- 构建生产机器学习基础设施
- 分类准确性不够:可以使用更多表现测量
- 一种预测模型的巧妙应用
- 机器学习项目中常见的陷阱
- 数据清理:将凌乱的数据转换为整洁的数据
- 机器学习中的数据泄漏
- 数据,学习和建模
- 数据管理至关重要以及为什么需要认真对待它
- 将预测模型部署到生产中
- 参数和超参数之间有什么区别?
- 测试和验证数据集之间有什么区别?
- 发现特征工程,如何设计特征以及如何获得它
- 如何开始使用Kaggle
- 超越预测
- 如何在评估机器学习算法时选择正确的测试选项
- 如何定义机器学习问题
- 如何评估机器学习算法
- 如何获得基线结果及其重要性
- 如何充分利用机器学习数据
- 如何识别数据中的异常值
- 如何提高机器学习效果
- 如何在竞争机器学习中踢屁股
- 如何知道您的机器学习模型是否具有良好的表现
- 如何布局和管理您的机器学习项目
- 如何为机器学习准备数据
- 如何减少最终机器学习模型中的方差
- 如何使用机器学习结果
- 如何解决像数据科学家这样的问题
- 通过数据预处理提高模型精度
- 处理机器学习的大数据文件的7种方法
- 建立机器学习系统的经验教训
- 如何使用机器学习清单可靠地获得准确的预测(即使您是初学者)
- 机器学习模型运行期间要做什么
- 机器学习表现改进备忘单
- 来自世界级从业者的机器学习技巧:Phil Brierley
- 模型预测精度与机器学习中的解释
- 竞争机器学习的模型选择技巧
- 机器学习需要多少训练数据?
- 如何系统地规划和运行机器学习实验
- 应用机器学习过程
- 默认情况下可重现的机器学习结果
- 10个实践应用机器学习的标准数据集
- 简单的三步法到最佳机器学习算法
- 打击机器学习数据集中不平衡类的8种策略
- 模型表现不匹配问题(以及如何处理)
- 黑箱机器学习的诱惑陷阱
- 如何培养最终的机器学习模型
- 使用探索性数据分析了解您的问题并获得更好的结果
- 什么是数据挖掘和KDD
- 为什么One-Hot在机器学习中编码数据?
- 为什么你应该在你的机器学习问题上进行抽样检查算法
- 所以,你正在研究机器学习问题......
- Machine Learning Mastery Keras 深度学习教程
- Keras 中神经网络模型的 5 步生命周期
- 在 Python 迷你课程中应用深度学习
- Keras 深度学习库的二元分类教程
- 如何用 Keras 构建多层感知器神经网络模型
- 如何在 Keras 中检查深度学习模型
- 10 个用于 Amazon Web Services 深度学习的命令行秘籍
- 机器学习卷积神经网络的速成课程
- 如何在 Python 中使用 Keras 进行深度学习的度量
- 深度学习书籍
- 深度学习课程
- 你所知道的深度学习是一种谎言
- 如何设置 Amazon AWS EC2 GPU 以训练 Keras 深度学习模型(分步)
- 神经网络中批量和迭代之间的区别是什么?
- 在 Keras 展示深度学习模型训练历史
- 基于 Keras 的深度学习模型中的dropout正则化
- 评估 Keras 中深度学习模型的表现
- 如何评价深度学习模型的技巧
- 小批量梯度下降的简要介绍以及如何配置批量大小
- 在 Keras 中获得深度学习帮助的 9 种方法
- 如何使用 Keras 在 Python 中网格搜索深度学习模型的超参数
- 用 Keras 在 Python 中使用卷积神经网络进行手写数字识别
- 如何用 Keras 进行预测
- 用 Keras 进行深度学习的图像增强
- 8 个深度学习的鼓舞人心的应用
- Python 深度学习库 Keras 简介
- Python 深度学习库 TensorFlow 简介
- Python 深度学习库 Theano 简介
- 如何使用 Keras 函数式 API 进行深度学习
- Keras 深度学习库的多类分类教程
- 多层感知器神经网络速成课程
- 基于卷积神经网络的 Keras 深度学习库中的目标识别
- 流行的深度学习库
- 用深度学习预测电影评论的情感
- Python 中的 Keras 深度学习库的回归教程
- 如何使用 Keras 获得可重现的结果
- 如何在 Linux 服务器上运行深度学习实验
- 保存并加载您的 Keras 深度学习模型
- 用 Keras 逐步开发 Python 中的第一个神经网络
- 用 Keras 理解 Python 中的有状态 LSTM 循环神经网络
- 在 Python 中使用 Keras 深度学习模型和 Scikit-Learn
- 如何使用预训练的 VGG 模型对照片中的物体进行分类
- 在 Python 和 Keras 中对深度学习模型使用学习率调度
- 如何在 Keras 中可视化深度学习神经网络模型
- 什么是深度学习?
- 何时使用 MLP,CNN 和 RNN 神经网络
- 为什么用随机权重初始化神经网络?
- Machine Learning Mastery 深度学习 NLP 教程
- 深度学习在自然语言处理中的 7 个应用
- 如何实现自然语言处理的波束搜索解码器
- 深度学习文档分类的最佳实践
- 关于自然语言处理的热门书籍
- 在 Python 中计算文本 BLEU 分数的温和介绍
- 使用编码器 - 解码器模型的用于字幕生成的注入和合并架构
- 如何用 Python 清理机器学习的文本
- 如何配置神经机器翻译的编码器 - 解码器模型
- 如何开始深度学习自然语言处理(7 天迷你课程)
- 自然语言处理的数据集
- 如何开发一种深度学习的词袋模型来预测电影评论情感
- 深度学习字幕生成模型的温和介绍
- 如何在 Keras 中定义神经机器翻译的编码器 - 解码器序列 - 序列模型
- 如何利用小实验在 Keras 中开发字幕生成模型
- 如何从头开发深度学习图片标题生成器
- 如何在 Keras 中开发基于字符的神经语言模型
- 如何开发用于情感分析的 N-gram 多通道卷积神经网络
- 如何从零开始开发神经机器翻译系统
- 如何在 Python 中用 Keras 开发基于单词的神经语言模型
- 如何开发一种预测电影评论情感的词嵌入模型
- 如何使用 Gensim 在 Python 中开发词嵌入
- 用于文本摘要的编码器 - 解码器深度学习模型
- Keras 中文本摘要的编码器 - 解码器模型
- 用于神经机器翻译的编码器 - 解码器循环神经网络模型
- 浅谈词袋模型
- 文本摘要的温和介绍
- 编码器 - 解码器循环神经网络中的注意力如何工作
- 如何利用深度学习自动生成照片的文本描述
- 如何开发一个单词级神经语言模型并用它来生成文本
- 浅谈神经机器翻译
- 什么是自然语言处理?
- 牛津自然语言处理深度学习课程
- 如何为机器翻译准备法语到英语的数据集
- 如何为情感分析准备电影评论数据
- 如何为文本摘要准备新闻文章
- 如何准备照片标题数据集以训练深度学习模型
- 如何使用 Keras 为深度学习准备文本数据
- 如何使用 scikit-learn 为机器学习准备文本数据
- 自然语言处理神经网络模型入门
- 对自然语言处理的深度学习的承诺
- 在 Python 中用 Keras 进行 LSTM 循环神经网络的序列分类
- 斯坦福自然语言处理深度学习课程评价
- 统计语言建模和神经语言模型的简要介绍
- 使用 Keras 在 Python 中进行 LSTM 循环神经网络的文本生成
- 浅谈机器学习中的转换
- 如何使用 Keras 将词嵌入层用于深度学习
- 什么是用于文本的词嵌入
- Machine Learning Mastery 深度学习时间序列教程
- 如何开发人类活动识别的一维卷积神经网络模型
- 人类活动识别的深度学习模型
- 如何评估人类活动识别的机器学习算法
- 时间序列预测的多层感知器网络探索性配置
- 比较经典和机器学习方法进行时间序列预测的结果
- 如何通过深度学习快速获得时间序列预测的结果
- 如何利用 Python 处理序列预测问题中的缺失时间步长
- 如何建立预测大气污染日的概率预测模型
- 如何开发一种熟练的机器学习时间序列预测模型
- 如何构建家庭用电自回归预测模型
- 如何开发多步空气污染时间序列预测的自回归预测模型
- 如何制定多站点多元空气污染时间序列预测的基线预测
- 如何开发时间序列预测的卷积神经网络模型
- 如何开发卷积神经网络用于多步时间序列预测
- 如何开发单变量时间序列预测的深度学习模型
- 如何开发 LSTM 模型用于家庭用电的多步时间序列预测
- 如何开发 LSTM 模型进行时间序列预测
- 如何开发多元多步空气污染时间序列预测的机器学习模型
- 如何开发多层感知器模型进行时间序列预测
- 如何开发人类活动识别时间序列分类的 RNN 模型
- 如何开始深度学习的时间序列预测(7 天迷你课程)
- 如何网格搜索深度学习模型进行时间序列预测
- 如何对单变量时间序列预测的网格搜索朴素方法
- 如何在 Python 中搜索 SARIMA 模型超参数用于时间序列预测
- 如何在 Python 中进行时间序列预测的网格搜索三次指数平滑
- 一个标准的人类活动识别问题的温和介绍
- 如何加载和探索家庭用电数据
- 如何加载,可视化和探索复杂的多变量多步时间序列预测数据集
- 如何从智能手机数据模拟人类活动
- 如何根据环境因素预测房间占用率
- 如何使用脑波预测人眼是开放还是闭合
- 如何在 Python 中扩展长短期内存网络的数据
- 如何使用 TimeseriesGenerator 进行 Keras 中的时间序列预测
- 基于机器学习算法的室内运动时间序列分类
- 用于时间序列预测的状态 LSTM 在线学习的不稳定性
- 用于罕见事件时间序列预测的 LSTM 模型体系结构
- 用于时间序列预测的 4 种通用机器学习数据变换
- Python 中长短期记忆网络的多步时间序列预测
- 家庭用电机器学习的多步时间序列预测
- Keras 中 LSTM 的多变量时间序列预测
- 如何开发和评估朴素的家庭用电量预测方法
- 如何为长短期记忆网络准备单变量时间序列数据
- 循环神经网络在时间序列预测中的应用
- 如何在 Python 中使用差异变换删除趋势和季节性
- 如何在 LSTM 中种子状态用于 Python 中的时间序列预测
- 使用 Python 进行时间序列预测的有状态和无状态 LSTM
- 长短时记忆网络在时间序列预测中的适用性
- 时间序列预测问题的分类
- Python 中长短期记忆网络的时间序列预测
- 基于 Keras 的 Python 中 LSTM 循环神经网络的时间序列预测
- Keras 中深度学习的时间序列预测
- 如何用 Keras 调整 LSTM 超参数进行时间序列预测
- 如何在时间序列预测训练期间更新 LSTM 网络
- 如何使用 LSTM 网络的 Dropout 进行时间序列预测
- 如何使用 LSTM 网络中的特征进行时间序列预测
- 如何在 LSTM 网络中使用时间序列进行时间序列预测
- 如何利用 LSTM 网络进行权重正则化进行时间序列预测
- Machine Learning Mastery 线性代数教程
- 机器学习数学符号的基础知识
- 用 NumPy 阵列轻松介绍广播
- 如何从 Python 中的 Scratch 计算主成分分析(PCA)
- 用于编码器审查的计算线性代数
- 10 机器学习中的线性代数示例
- 线性代数的温和介绍
- 用 NumPy 轻松介绍 Python 中的 N 维数组
- 机器学习向量的温和介绍
- 如何在 Python 中为机器学习索引,切片和重塑 NumPy 数组
- 机器学习的矩阵和矩阵算法简介
- 温和地介绍机器学习的特征分解,特征值和特征向量
- NumPy 对预期价值,方差和协方差的简要介绍
- 机器学习矩阵分解的温和介绍
- 用 NumPy 轻松介绍机器学习的张量
- 用于机器学习的线性代数中的矩阵类型简介
- 用于机器学习的线性代数备忘单
- 线性代数的深度学习
- 用于机器学习的线性代数(7 天迷你课程)
- 机器学习的线性代数
- 机器学习矩阵运算的温和介绍
- 线性代数评论没有废话指南
- 学习机器学习线性代数的主要资源
- 浅谈机器学习的奇异值分解
- 如何用线性代数求解线性回归
- 用于机器学习的稀疏矩阵的温和介绍
- 机器学习中向量规范的温和介绍
- 学习线性代数用于机器学习的 5 个理由
- Machine Learning Mastery LSTM 教程
- Keras中长短期记忆模型的5步生命周期
- 长短时记忆循环神经网络的注意事项
- CNN长短期记忆网络
- 逆向神经网络中的深度学习速成课程
- 可变长度输入序列的数据准备
- 如何用Keras开发用于Python序列分类的双向LSTM
- 如何开发Keras序列到序列预测的编码器 - 解码器模型
- 如何诊断LSTM模型的过度拟合和欠拟合
- 如何开发一种编码器 - 解码器模型,注重Keras中的序列到序列预测
- 编码器 - 解码器长短期存储器网络
- 神经网络中爆炸梯度的温和介绍
- 对时间反向传播的温和介绍
- 生成长短期记忆网络的温和介绍
- 专家对长短期记忆网络的简要介绍
- 在序列预测问题上充分利用LSTM
- 编辑器 - 解码器循环神经网络全局注意的温和介绍
- 如何利用长短时记忆循环神经网络处理很长的序列
- 如何在Python中对一个热编码序列数据
- 如何使用编码器 - 解码器LSTM来回显随机整数序列
- 具有注意力的编码器 - 解码器RNN体系结构的实现模式
- 学习使用编码器解码器LSTM循环神经网络添加数字
- 如何学习长短时记忆循环神经网络回声随机整数
- 具有Keras的长短期记忆循环神经网络的迷你课程
- LSTM自动编码器的温和介绍
- 如何用Keras中的长短期记忆模型进行预测
- 用Python中的长短期内存网络演示内存
- 基于循环神经网络的序列预测模型的简要介绍
- 深度学习的循环神经网络算法之旅
- 如何重塑Keras中长短期存储网络的输入数据
- 了解Keras中LSTM的返回序列和返回状态之间的差异
- RNN展开的温和介绍
- 5学习LSTM循环神经网络的简单序列预测问题的例子
- 使用序列进行预测
- 堆叠长短期内存网络
- 什么是教师强制循环神经网络?
- 如何在Python中使用TimeDistributed Layer for Long Short-Term Memory Networks
- 如何准备Keras中截断反向传播的序列预测
- 如何在使用LSTM进行训练和预测时使用不同的批量大小
- Machine Learning Mastery 机器学习算法教程
- 机器学习算法之旅
- 用于机器学习的装袋和随机森林集合算法
- 从头开始实施机器学习算法的好处
- 更好的朴素贝叶斯:从朴素贝叶斯算法中获取最多的12个技巧
- 机器学习的提升和AdaBoost
- 选择机器学习算法:Microsoft Azure的经验教训
- 机器学习的分类和回归树
- 什么是机器学习中的混淆矩阵
- 如何使用Python从头开始创建算法测试工具
- 通过创建机器学习算法的目标列表来控制
- 从头开始停止编码机器学习算法
- 在实现机器学习算法时,不要从开源代码开始
- 不要使用随机猜测作为基线分类器
- 浅谈机器学习中的概念漂移
- 温和介绍机器学习中的偏差 - 方差权衡
- 机器学习的梯度下降
- 机器学习算法如何工作(他们学习输入到输出的映射)
- 如何建立机器学习算法的直觉
- 如何实现机器学习算法
- 如何研究机器学习算法行为
- 如何学习机器学习算法
- 如何研究机器学习算法
- 如何研究机器学习算法
- 如何在Python中从头开始实现反向传播算法
- 如何用Python从头开始实现Bagging
- 如何用Python从头开始实现基线机器学习算法
- 如何在Python中从头开始实现决策树算法
- 如何用Python从头开始实现学习向量量化
- 如何利用Python从头开始随机梯度下降实现线性回归
- 如何利用Python从头开始随机梯度下降实现Logistic回归
- 如何用Python从头开始实现机器学习算法表现指标
- 如何在Python中从头开始实现感知器算法
- 如何在Python中从零开始实现随机森林
- 如何在Python中从头开始实现重采样方法
- 如何用Python从头开始实现简单线性回归
- 如何用Python从头开始实现堆栈泛化(Stacking)
- K-Nearest Neighbors for Machine Learning
- 学习机器学习的向量量化
- 机器学习的线性判别分析
- 机器学习的线性回归
- 使用梯度下降进行机器学习的线性回归教程
- 如何在Python中从头开始加载机器学习数据
- 机器学习的Logistic回归
- 机器学习的Logistic回归教程
- 机器学习算法迷你课程
- 如何在Python中从头开始实现朴素贝叶斯
- 朴素贝叶斯机器学习
- 朴素贝叶斯机器学习教程
- 机器学习算法的过拟合和欠拟合
- 参数化和非参数机器学习算法
- 理解任何机器学习算法的6个问题
- 在机器学习中拥抱随机性
- 如何使用Python从头开始扩展机器学习数据
- 机器学习的简单线性回归教程
- 有监督和无监督的机器学习算法
- 用于机器学习的支持向量机
- 在没有数学背景的情况下理解机器学习算法的5种技术
- 最好的机器学习算法
- 教程从头开始在Python中实现k-Nearest Neighbors
- 通过从零开始实现它们来理解机器学习算法(以及绕过坏代码的策略)
- 使用随机森林:在121个数据集上测试179个分类器
- 为什么从零开始实现机器学习算法
- Machine Learning Mastery 机器学习入门教程
- 机器学习入门的四个步骤:初学者入门与实践的自上而下策略
- 你应该培养的 5 个机器学习领域
- 一种选择机器学习算法的数据驱动方法
- 机器学习中的分析与数值解
- 应用机器学习是一种精英政治
- 机器学习的基本概念
- 如何成为数据科学家
- 初学者如何在机器学习中弄错
- 机器学习的最佳编程语言
- 构建机器学习组合
- 机器学习中分类与回归的区别
- 评估自己作为数据科学家并利用结果建立惊人的数据科学团队
- 探索 Kaggle 大师的方法论和心态:对 Diogo Ferreira 的采访
- 扩展机器学习工具并展示掌握
- 通过寻找地标开始机器学习
- 温和地介绍预测建模
- 通过提供结果在机器学习中获得梦想的工作
- 如何开始机器学习:自学蓝图
- 开始并在机器学习方面取得进展
- 应用机器学习的 Hello World
- 初学者如何使用小型项目开始机器学习并在 Kaggle 上进行竞争
- 我如何开始机器学习? (简短版)
- 我是如何开始机器学习的
- 如何在机器学习中取得更好的成绩
- 如何从在银行工作到担任 Target 的高级数据科学家
- 如何学习任何机器学习工具
- 使用小型目标项目深入了解机器学习工具
- 获得付费申请机器学习
- 映射机器学习工具的景观
- 机器学习开发环境
- 机器学习金钱
- 程序员的机器学习
- 机器学习很有意思
- 机器学习是 Kaggle 比赛
- 机器学习现在很受欢迎
- 机器学习掌握方法
- 机器学习很重要
- 机器学习 Q& A:概念漂移,更好的结果和学习更快
- 缺乏自学机器学习的路线图
- 机器学习很重要
- 快速了解任何机器学习工具(即使您是初学者)
- 机器学习工具
- 找到你的机器学习部落
- 机器学习在一年
- 通过竞争一致的大师 Kaggle
- 5 程序员在机器学习中开始犯错误
- 哲学毕业生到机器学习从业者(Brian Thomas 采访)
- 机器学习入门的实用建议
- 实用机器学习问题
- 使用来自 UCI 机器学习库的数据集练习机器学习
- 使用秘籍的任何机器学习工具快速启动
- 程序员可以进入机器学习
- 程序员应该进入机器学习
- 项目焦点:Shashank Singh 的人脸识别
- 项目焦点:使用 Mahout 和 Konstantin Slisenko 进行堆栈交换群集
- 机器学习自学指南
- 4 个自学机器学习项目
- ÁlvaroLemos 如何在数据科学团队中获得机器学习实习
- 如何思考机器学习
- 现实世界机器学习问题之旅
- 有关机器学习的有用知识
- 如果我没有学位怎么办?
- 如果我不是一个优秀的程序员怎么办?
- 如果我不擅长数学怎么办?
- 为什么机器学习算法会处理以前从未见过的数据?
- 是什么阻碍了你的机器学习目标?
- 什么是机器学习?
- 机器学习适合哪里?
- 为什么要进入机器学习?
- 研究对您来说很重要的机器学习问题
- 你这样做是错的。为什么机器学习不必如此困难
- Machine Learning Mastery Sklearn 教程
- Scikit-Learn 的温和介绍:Python 机器学习库
- 使用 Python 管道和 scikit-learn 自动化机器学习工作流程
- 如何以及何时使用带有 scikit-learn 的校准分类模型
- 如何比较 Python 中的机器学习算法与 scikit-learn
- 用于机器学习开发人员的 Python 崩溃课程
- 用 scikit-learn 在 Python 中集成机器学习算法
- 使用重采样评估 Python 中机器学习算法的表现
- 使用 Scikit-Learn 在 Python 中进行特征选择
- Python 中机器学习的特征选择
- 如何使用 scikit-learn 在 Python 中生成测试数据集
- scikit-learn 中的机器学习算法秘籍
- 如何使用 Python 处理丢失的数据
- 如何开始使用 Python 进行机器学习
- 如何使用 Scikit-Learn 在 Python 中加载数据
- Python 中概率评分方法的简要介绍
- 如何用 Scikit-Learn 调整算法参数
- 如何在 Mac OS X 上安装 Python 3 环境以进行机器学习和深度学习
- 使用 scikit-learn 进行机器学习简介
- 从 shell 到一本带有 Fernando Perez 单一工具的书的 IPython
- 如何使用 Python 3 为机器学习开发创建 Linux 虚拟机
- 如何在 Python 中加载机器学习数据
- 您在 Python 中的第一个机器学习项目循序渐进
- 如何使用 scikit-learn 进行预测
- 用于评估 Python 中机器学习算法的度量标准
- 使用 Pandas 为 Python 中的机器学习准备数据
- 如何使用 Scikit-Learn 为 Python 机器学习准备数据
- 项目焦点:使用 Artem Yankov 在 Python 中进行事件推荐
- 用于机器学习的 Python 生态系统
- Python 是应用机器学习的成长平台
- Python 机器学习书籍
- Python 机器学习迷你课程
- 使用 Pandas 快速和肮脏的数据分析
- 使用 Scikit-Learn 重新调整 Python 中的机器学习数据
- 如何以及何时使用 ROC 曲线和精确调用曲线进行 Python 分类
- 使用 scikit-learn 在 Python 中保存和加载机器学习模型
- scikit-learn Cookbook 书评
- 如何使用 Anaconda 为机器学习和深度学习设置 Python 环境
- 使用 scikit-learn 在 Python 中进行 Spot-Check 分类机器学习算法
- 如何在 Python 中开发可重复使用的抽样检查算法框架
- 使用 scikit-learn 在 Python 中进行 Spot-Check 回归机器学习算法
- 使用 Python 中的描述性统计来了解您的机器学习数据
- 使用 OpenCV,Python 和模板匹配来播放“哪里是 Waldo?”
- 使用 Pandas 在 Python 中可视化机器学习数据
- Machine Learning Mastery 统计学教程
- 浅谈计算正态汇总统计量
- 非参数统计的温和介绍
- Python中常态测试的温和介绍
- 浅谈Bootstrap方法
- 浅谈机器学习的中心极限定理
- 浅谈机器学习中的大数定律
- 机器学习的所有统计数据
- 如何计算Python中机器学习结果的Bootstrap置信区间
- 浅谈机器学习的Chi-Squared测试
- 机器学习的置信区间
- 随机化在机器学习中解决混杂变量的作用
- 机器学习中的受控实验
- 机器学习统计学速成班
- 统计假设检验的关键值以及如何在Python中计算它们
- 如何在机器学习中谈论数据(统计学和计算机科学术语)
- Python中数据可视化方法的简要介绍
- Python中效果大小度量的温和介绍
- 估计随机机器学习算法的实验重复次数
- 机器学习评估统计的温和介绍
- 如何计算Python中的非参数秩相关性
- 如何在Python中计算数据的5位数摘要
- 如何在Python中从头开始编写学生t检验
- 如何在Python中生成随机数
- 如何转换数据以更好地拟合正态分布
- 如何使用相关来理解变量之间的关系
- 如何使用统计信息识别数据中的异常值
- 用于Python机器学习的随机数生成器简介
- k-fold交叉验证的温和介绍
- 如何计算McNemar的比较两种机器学习量词的测试
- Python中非参数统计显着性测试简介
- 如何在Python中使用参数统计显着性测试
- 机器学习的预测间隔
- 应用统计学与机器学习的密切关系
- 如何使用置信区间报告分类器表现
- 统计数据分布的简要介绍
- 15 Python中的统计假设检验(备忘单)
- 统计假设检验的温和介绍
- 10如何在机器学习项目中使用统计方法的示例
- Python中统计功效和功耗分析的简要介绍
- 统计抽样和重新抽样的简要介绍
- 比较机器学习算法的统计显着性检验
- 机器学习中统计容差区间的温和介绍
- 机器学习统计书籍
- 评估机器学习模型的统计数据
- 机器学习统计(7天迷你课程)
- 用于机器学习的简明英语统计
- 如何使用统计显着性检验来解释机器学习结果
- 什么是统计(为什么它在机器学习中很重要)?
- Machine Learning Mastery 时间序列入门教程
- 如何在 Python 中为时间序列预测创建 ARIMA 模型
- 用 Python 进行时间序列预测的自回归模型
- 如何回溯机器学习模型的时间序列预测
- Python 中基于时间序列数据的基本特征工程
- R 的时间序列预测热门书籍
- 10 挑战机器学习时间序列预测问题
- 如何将时间序列转换为 Python 中的监督学习问题
- 如何将时间序列数据分解为趋势和季节性
- 如何用 ARCH 和 GARCH 模拟波动率进行时间序列预测
- 如何将时间序列数据集与 Python 区分开来
- Python 中时间序列预测的指数平滑的温和介绍
- 用 Python 进行时间序列预测的特征选择
- 浅谈自相关和部分自相关
- 时间序列预测的 Box-Jenkins 方法简介
- 用 Python 简要介绍时间序列的时间序列预测
- 如何使用 Python 网格搜索 ARIMA 模型超参数
- 如何在 Python 中加载和探索时间序列数据
- 如何使用 Python 对 ARIMA 模型进行手动预测
- 如何用 Python 进行时间序列预测的预测
- 如何使用 Python 中的 ARIMA 进行样本外预测
- 如何利用 Python 模拟残差错误来纠正时间序列预测
- 使用 Python 进行数据准备,特征工程和时间序列预测的移动平均平滑
- 多步时间序列预测的 4 种策略
- 如何在 Python 中规范化和标准化时间序列数据
- 如何利用 Python 进行时间序列预测的基线预测
- 如何使用 Python 对时间序列预测数据进行功率变换
- 用于时间序列预测的 Python 环境
- 如何重构时间序列预测问题
- 如何使用 Python 重新采样和插值您的时间序列数据
- 用 Python 编写 SARIMA 时间序列预测
- 如何在 Python 中保存 ARIMA 时间序列预测模型
- 使用 Python 进行季节性持久性预测
- 基于 ARIMA 的 Python 历史规模敏感性预测技巧分析
- 简单的时间序列预测模型进行测试,这样你就不会欺骗自己
- 标准多变量,多步骤和多站点时间序列预测问题
- 如何使用 Python 检查时间序列数据是否是固定的
- 使用 Python 进行时间序列数据可视化
- 7 个机器学习的时间序列数据集
- 时间序列预测案例研究与 Python:波士顿每月武装抢劫案
- Python 的时间序列预测案例研究:巴尔的摩的年度用水量
- 使用 Python 进行时间序列预测研究:法国香槟的月销售额
- 使用 Python 的置信区间理解时间序列预测不确定性
- 11 Python 中的经典时间序列预测方法(备忘单)
- 使用 Python 进行时间序列预测表现测量
- 使用 Python 7 天迷你课程进行时间序列预测
- 时间序列预测作为监督学习
- 什么是时间序列预测?
- 如何使用 Python 识别和删除时间序列数据的季节性
- 如何在 Python 中使用和删除时间序列数据中的趋势信息
- 如何在 Python 中调整 ARIMA 参数
- 如何用 Python 可视化时间序列残差预测错误
- 白噪声时间序列与 Python
- 如何通过时间序列预测项目
- Machine Learning Mastery XGBoost 教程
- 通过在 Python 中使用 XGBoost 提前停止来避免过度拟合
- 如何在 Python 中调优 XGBoost 的多线程支持
- 如何配置梯度提升算法
- 在 Python 中使用 XGBoost 进行梯度提升的数据准备
- 如何使用 scikit-learn 在 Python 中开发您的第一个 XGBoost 模型
- 如何在 Python 中使用 XGBoost 评估梯度提升模型
- 在 Python 中使用 XGBoost 的特征重要性和特征选择
- 浅谈机器学习的梯度提升算法
- 应用机器学习的 XGBoost 简介
- 如何在 macOS 上为 Python 安装 XGBoost
- 如何在 Python 中使用 XGBoost 保存梯度提升模型
- 从梯度提升开始,比较 165 个数据集上的 13 种算法
- 在 Python 中使用 XGBoost 和 scikit-learn 进行随机梯度提升
- 如何使用 Amazon Web Services 在云中训练 XGBoost 模型
- 在 Python 中使用 XGBoost 调整梯度提升的学习率
- 如何在 Python 中使用 XGBoost 调整决策树的数量和大小
- 如何在 Python 中使用 XGBoost 可视化梯度提升决策树
- 在 Python 中开始使用 XGBoost 的 7 步迷你课程