# 如何利用小实验在 Keras 中开发字幕生成模型
> 原文: [https://machinelearningmastery.com/develop-a-caption-generation-model-in-keras/](https://machinelearningmastery.com/develop-a-caption-generation-model-in-keras/)
字幕生成是一个具有挑战性的人工智能问题,其中必须为照片生成文本描述。
它既需要计算机视觉的方法来理解图像的内容,也需要来自自然语言处理领域的语言模型,以便将图像的理解转化为正确的单词。最近,深度学习方法已经在该问题的示例上获得了现有技术的结果。
在您自己的数据上开发字幕生成模型可能很困难,主要是因为数据集和模型太大而需要数天才能进行训练。另一种方法是使用较小数据集的小样本来探索模型配置。
在本教程中,您将了解如何使用标准照片字幕数据集的小样本来探索不同的深度模型设计。
完成本教程后,您将了解:
* 如何为照片字幕建模准备数据。
* 如何设计基线和测试工具来评估模型的技能和控制其随机性。
* 如何评估模型技能,特征提取模型和单词嵌入等属性,以提升模型技能。
让我们开始吧。
* **2019 年 2 月 2 日**:提供了 Flickr8k_Dataset 数据集的直接链接,因为官方网站被删除了。
![How to Use Small Experiments to Develop a Caption Generation Model in Keras](img/7d34b218f89d903c2711e5c2dc7e3027.jpg)
如何使用小实验开发 Keras 中的字幕生成模型
照片由 [Per](https://www.flickr.com/photos/perry-pics/5968641588/) ,保留一些权利。
## 教程概述
本教程分为 6 个部分;他们是:
1. 数据准备
2. 基线标题生成模型
3. 网络大小参数
4. 配置特征提取模型
5. 词嵌入模型
6. 结果分析
### Python 环境
本教程假设您安装了 Python SciPy 环境,理想情况下使用 Python 3。
您必须安装带有 TensorFlow 或 Theano 后端的 Keras(2.0 或更高版本)。
本教程还假设您安装了 scikit-learn,Pandas,NumPy 和 Matplotlib。
如果您需要有关环境的帮助,请参阅本教程:
* [如何使用 Anaconda 设置用于机器学习和深度学习的 Python 环境](https://machinelearningmastery.com/setup-python-environment-machine-learning-deep-learning-anaconda/)
我建议在带 GPU 的系统上运行代码。
您可以在 Amazon Web Services 上以低成本方式访问 GPU。在本教程中学习如何:
* [如何使用亚马逊网络服务上的 Keras 开发和评估大型深度学习模型](https://machinelearningmastery.com/develop-evaluate-large-deep-learning-models-keras-amazon-web-services/)
让我们潜入。
## 数据准备
首先,我们需要准备数据集来训练模型。
我们将使用 Flickr8K 数据集,该数据集包含超过 8,000 张照片及其描述。
您可以从此处下载数据集:
* [将图像描述框架化为排名任务:数据,模型和评估指标](http://nlp.cs.illinois.edu/HockenmaierGroup/Framing_Image_Description/KCCA.html)。
**UPDATE(April / 2019)**:官方网站似乎已被删除(虽然表格仍然有效)。以下是我的[数据集 GitHub 存储库](https://github.com/jbrownlee/Datasets)的一些直接下载链接:
* [Flickr8k_Dataset.zip](https://github.com/jbrownlee/Datasets/releases/download/Flickr8k/Flickr8k_Dataset.zip)
* [Flickr8k_text.zip](https://github.com/jbrownlee/Datasets/releases/download/Flickr8k/Flickr8k_text.zip)
将照片和说明分别解压缩到 _Flicker8k_Dataset_ 和 _Flickr8k_text_ 目录中的当前工作目录中。
数据准备分为两部分,它们是:
1. 准备文本
2. 准备照片
### 准备文本
数据集包含每张照片的多个描述,描述文本需要一些最小的清洁。
首先,我们将加载包含所有描述的文件。
```py
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
filename = 'Flickr8k_text/Flickr8k.token.txt'
# load descriptions
doc = load_doc(filename)
```
每张照片都有唯一的标识符。这用于照片文件名和描述的文本文件中。接下来,我们将逐步浏览照片说明列表并保存每张照片的第一个描述。下面定义了一个名为 _load_descriptions()_ 的函数,给定加载的文档文本,它将返回照片标识符的字典到描述。
```py
# extract descriptions for images
def load_descriptions(doc):
mapping = dict()
# process lines
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
if len(line) < 2:
continue
# take the first token as the image id, the rest as the description
image_id, image_desc = tokens[0], tokens[1:]
# remove filename from image id
image_id = image_id.split('.')[0]
# convert description tokens back to string
image_desc = ' '.join(image_desc)
# store the first description for each image
if image_id not in mapping:
mapping[image_id] = image_desc
return mapping
# parse descriptions
descriptions = load_descriptions(doc)
print('Loaded: %d ' % len(descriptions))
```
接下来,我们需要清理描述文本。
描述已经被分词并且易于使用。我们将通过以下方式清理文本,以减少我们需要使用的单词词汇量:
* 将所有单词转换为小写。
* 删除所有标点符号。
* 删除所有长度不超过一个字符的单词(例如“a”)。
下面定义 _clean_descriptions()_ 函数,给定描述图像标识符的字典,逐步执行每个描述并清理文本。
```py
import string
def clean_descriptions(descriptions):
# prepare translation table for removing punctuation
table = str.maketrans('', '', string.punctuation)
for key, desc in descriptions.items():
# tokenize
desc = desc.split()
# convert to lower case
desc = [word.lower() for word in desc]
# remove punctuation from each token
desc = [w.translate(table) for w in desc]
# remove hanging 's' and 'a'
desc = [word for word in desc if len(word)>1]
# store as string
descriptions[key] = ' '.join(desc)
# clean descriptions
clean_descriptions(descriptions)
# summarize vocabulary
all_tokens = ' '.join(descriptions.values()).split()
vocabulary = set(all_tokens)
print('Vocabulary Size: %d' % len(vocabulary))
```
最后,我们将图像标识符和描述字典保存到名为 _descriptionss.txt_ 的新文件中,每行有一个图像标识符和描述。
下面定义了 _save_doc()_ 函数,该函数给出了包含标识符到描述和文件名的映射的字典,将映射保存到文件。
```py
# save descriptions to file, one per line
def save_doc(descriptions, filename):
lines = list()
for key, desc in descriptions.items():
lines.append(key + ' ' + desc)
data = '\n'.join(lines)
file = open(filename, 'w')
file.write(data)
file.close()
# save descriptions
save_doc(descriptions, 'descriptions.txt')
```
综合这些,下面提供了完整的列表。
```py
import string
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# extract descriptions for images
def load_descriptions(doc):
mapping = dict()
# process lines
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
if len(line) < 2:
continue
# take the first token as the image id, the rest as the description
image_id, image_desc = tokens[0], tokens[1:]
# remove filename from image id
image_id = image_id.split('.')[0]
# convert description tokens back to string
image_desc = ' '.join(image_desc)
# store the first description for each image
if image_id not in mapping:
mapping[image_id] = image_desc
return mapping
def clean_descriptions(descriptions):
# prepare translation table for removing punctuation
table = str.maketrans('', '', string.punctuation)
for key, desc in descriptions.items():
# tokenize
desc = desc.split()
# convert to lower case
desc = [word.lower() for word in desc]
# remove punctuation from each token
desc = [w.translate(table) for w in desc]
# remove hanging 's' and 'a'
desc = [word for word in desc if len(word)>1]
# store as string
descriptions[key] = ' '.join(desc)
# save descriptions to file, one per line
def save_doc(descriptions, filename):
lines = list()
for key, desc in descriptions.items():
lines.append(key + ' ' + desc)
data = '\n'.join(lines)
file = open(filename, 'w')
file.write(data)
file.close()
filename = 'Flickr8k_text/Flickr8k.token.txt'
# load descriptions
doc = load_doc(filename)
# parse descriptions
descriptions = load_descriptions(doc)
print('Loaded: %d ' % len(descriptions))
# clean descriptions
clean_descriptions(descriptions)
# summarize vocabulary
all_tokens = ' '.join(descriptions.values()).split()
vocabulary = set(all_tokens)
print('Vocabulary Size: %d' % len(vocabulary))
# save descriptions
save_doc(descriptions, 'descriptions.txt')
```
首先运行示例打印已加载的照片描述数(8,092)和干净词汇表的大小(4,484 个单词)。
```py
Loaded: 8092
Vocabulary Size: 4484
```
然后将干净的描述写入' _descriptionss.txt_ '。看一下文件,我们可以看到描述已准备好进行建模。
看一下文件,我们可以看到描述已准备好进行建模。
```py
3621647714_fc67ab2617 man is standing on snow with trees and mountains all around him
365128300_6966058139 group of people are rafting on river rapids
2751694538_fffa3d307d man and boy sit in the driver seat
537628742_146f2c24f8 little girl running in field
2320125735_27fe729948 black and brown dog with blue collar goes on alert by soccer ball in the grass
...
```
### 准备照片
我们将使用预先训练的模型来解释照片的内容。
有很多型号可供选择。在这种情况下,我们将使用 2014 年赢得 ImageNet 竞赛的牛津视觉几何组或 VGG 模型。在此处了解有关模型的更多信息:
* [用于大规模视觉识别的超深卷积网络](http://www.robots.ox.ac.uk/~vgg/research/very_deep/)
Keras 直接提供这种预先训练的模型。请注意,第一次使用此模型时,Keras 将从 Internet 下载模型权重,大约为 500 兆字节。这可能需要几分钟,具体取决于您的互联网连接。
我们可以将此模型用作更广泛的图像标题模型的一部分。问题是,它是一个大型模型,每次我们想要测试一个新的语言模型配置(下游)是多余的时,通过网络运行每张照片。
相反,我们可以使用预先训练的模型预先计算“照片功能”并将其保存到文件中。然后,我们可以稍后加载这些功能,并将它们作为数据集中给定照片的解释提供给我们的模型。通过完整的 VGG 模型运行照片也没有什么不同,只是我们提前完成了一次。
这是一种优化,可以更快地训练我们的模型并消耗更少的内存。
我们可以使用 VGG 类在 Keras 中加载 VGG 模型。我们将加载没有顶部的模型;这意味着没有网络末端的层用于解释从输入中提取的特征并将它们转换为类预测。我们对照片的图像网络分类不感兴趣,我们将训练自己对图像特征的解释。
Keras 还提供了用于将加载的照片整形为模型的优选尺寸的工具(例如,3 通道 224×224 像素图像)。
下面是一个名为 _extract_features()_ 的函数,给定目录名称将加载每张照片,为 VGG 准备并从 VGG 模型中收集预测的特征。图像特征是具有形状(7,7,512)的三维阵列。
该函数返回图像标识符的字典到图像特征。
```py
# extract features from each photo in the directory
def extract_features(directory):
# load the model
in_layer = Input(shape=(224, 224, 3))
model = VGG16(include_top=False, input_tensor=in_layer)
print(model.summary())
# extract features from each photo
features = dict()
for name in listdir(directory):
# load an image from file
filename = directory + '/' + name
image = load_img(filename, target_size=(224, 224))
# convert the image pixels to a numpy array
image = img_to_array(image)
# reshape data for the model
image = image.reshape((1, image.shape[0], image.shape[1], image.shape[2]))
# prepare the image for the VGG model
image = preprocess_input(image)
# get features
feature = model.predict(image, verbose=0)
# get image id
image_id = name.split('.')[0]
# store feature
features[image_id] = feature
print('>%s' % name)
return features
```
我们可以调用此函数来准备用于测试模型的照片数据,然后将生成的字典保存到名为“ _features.pkl_ ”的文件中。
下面列出了完整的示例。
```py
from os import listdir
from pickle import dump
from keras.applications.vgg16 import VGG16
from keras.preprocessing.image import load_img
from keras.preprocessing.image import img_to_array
from keras.applications.vgg16 import preprocess_input
from keras.layers import Input
# extract features from each photo in the directory
def extract_features(directory):
# load the model
in_layer = Input(shape=(224, 224, 3))
model = VGG16(include_top=False, input_tensor=in_layer)
print(model.summary())
# extract features from each photo
features = dict()
for name in listdir(directory):
# load an image from file
filename = directory + '/' + name
image = load_img(filename, target_size=(224, 224))
# convert the image pixels to a numpy array
image = img_to_array(image)
# reshape data for the model
image = image.reshape((1, image.shape[0], image.shape[1], image.shape[2]))
# prepare the image for the VGG model
image = preprocess_input(image)
# get features
feature = model.predict(image, verbose=0)
# get image id
image_id = name.split('.')[0]
# store feature
features[image_id] = feature
print('>%s' % name)
return features
# extract features from all images
directory = 'Flicker8k_Dataset'
features = extract_features(directory)
print('Extracted Features: %d' % len(features))
# save to file
dump(features, open('features.pkl', 'wb'))
```
运行此数据准备步骤可能需要一段时间,具体取决于您的硬件,可能需要一个小时的 CPU 与现代工作站。
在运行结束时,您将提取的特征存储在' _features.pkl_ '中供以后使用。
## 基线标题生成模型
在本节中,我们将定义一个基线模型,用于生成照片的标题以及如何对其进行评估,以便将其与此基线的变体进行比较。
本节分为 5 部分:
1. 加载数据。
2. 适合模型。
3. 评估模型。
4. 完整的例子
5. “A”与“A”测试
6. 生成照片标题
### 1.加载数据
我们不会在所有字幕数据上,甚至在大量数据样本上使用该模型。
在本教程中,我们感兴趣的是快速测试一组标题模型的不同配置,以查看对此数据有何用处。这意味着我们需要快速评估一个模型配置。为此,我们将在 100 张照片和标题上训练模型,然后在训练数据集和 100 张照片和标题的新测试集上进行评估。
首先,我们需要加载预定义的照片子集。提供的数据集具有用于训练,测试和开发的单独集合,这些集合实际上只是不同的照片标识符组。我们将加载开发集并使用前 100 个列表标识符和第二个 100 标识符(例如从 100 到 200)作为测试集。
下面的函数 _load_set()_ 将加载一组预定义的标识符,我们将使用' _Flickr_8k.devImages.txt_ '文件名作为参数调用它。
```py
# load a pre-defined list of photo identifiers
def load_set(filename):
doc = load_doc(filename)
dataset = list()
# process line by line
for line in doc.split('\n'):
# skip empty lines
if len(line) < 1:
continue
# get the image identifier
identifier = line.split('.')[0]
dataset.append(identifier)
return set(dataset)
```
接下来,我们需要将集合拆分为训练集和测试集。
我们将首先通过对标识符进行排序来对它们进行排序,以确保我们始终在机器和运行中对它们进行一致的分割,然后将前 100 个用于训练,接下来的 100 个用于测试。
下面的 _train_test_split()_ 函数将在加载的标识符集作为输入的情况下创建此拆分。
```py
# split a dataset into train/test elements
def train_test_split(dataset):
# order keys so the split is consistent
ordered = sorted(dataset)
# return split dataset as two new sets
return set(ordered[:100]), set(ordered[100:200])
```
现在,我们可以使用预定义的一组训练或测试标识符加载照片描述。
下面是函数 _load_clean_descriptions()_,它为来自' _descriptionss.txt_ '的已清除文本描述加载给定的一组标识符,并将标识符字典返回给文本。
我们将开发的模型将生成给定照片的标题,并且标题将一次生成一个单词。将提供先前生成的单词的序列作为输入。因此,我们需要一个“_ 第一个字 _”来启动生成过程和'_ 最后一个字 _'来表示标题的结束。为此,我们将使用字符串' _startseq_ '和' _endseq_ '。
```py
# load clean descriptions into memory
def load_clean_descriptions(filename, dataset):
# load document
doc = load_doc(filename)
descriptions = dict()
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
# split id from description
image_id, image_desc = tokens[0], tokens[1:]
# skip images not in the set
if image_id in dataset:
# store
descriptions[image_id] = 'startseq ' + ' '.join(image_desc) + ' endseq'
return descriptions
```
接下来,我们可以加载给定数据集的照片功能。
下面定义了一个名为 _load_photo_features()_ 的函数,它加载了整套照片描述,然后返回给定照片标识符集的感兴趣子集。这不是非常有效,因为所有照片功能的加载字典大约是 700 兆字节。然而,这将使我们快速起步。
请注意,如果您有更好的方法,请在下面的评论中分享。
```py
# load photo features
def load_photo_features(filename, dataset):
# load all features
all_features = load(open(filename, 'rb'))
# filter features
features = {k: all_features[k] for k in dataset}
return features
```
我们可以暂停一下,测试迄今为止开发的所有内容
完整的代码示例如下所示。
```py
from pickle import load
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load a pre-defined list of photo identifiers
def load_set(filename):
doc = load_doc(filename)
dataset = list()
# process line by line
for line in doc.split('\n'):
# skip empty lines
if len(line) < 1:
continue
# get the image identifier
identifier = line.split('.')[0]
dataset.append(identifier)
return set(dataset)
# split a dataset into train/test elements
def train_test_split(dataset):
# order keys so the split is consistent
ordered = sorted(dataset)
# return split dataset as two new sets
return set(ordered[:100]), set(ordered[100:200])
# load clean descriptions into memory
def load_clean_descriptions(filename, dataset):
# load document
doc = load_doc(filename)
descriptions = dict()
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
# split id from description
image_id, image_desc = tokens[0], tokens[1:]
# skip images not in the set
if image_id in dataset:
# store
descriptions[image_id] = 'startseq ' + ' '.join(image_desc) + ' endseq'
return descriptions
# load photo features
def load_photo_features(filename, dataset):
# load all features
all_features = load(open(filename, 'rb'))
# filter features
features = {k: all_features[k] for k in dataset}
return features
# load dev set
filename = 'Flickr8k_text/Flickr_8k.devImages.txt'
dataset = load_set(filename)
print('Dataset: %d' % len(dataset))
# train-test split
train, test = train_test_split(dataset)
print('Train=%d, Test=%d' % (len(train), len(test)))
# descriptions
train_descriptions = load_clean_descriptions('descriptions.txt', train)
test_descriptions = load_clean_descriptions('descriptions.txt', test)
print('Descriptions: train=%d, test=%d' % (len(train_descriptions), len(test_descriptions)))
# photo features
train_features = load_photo_features('features.pkl', train)
test_features = load_photo_features('features.pkl', test)
print('Photos: train=%d, test=%d' % (len(train_features), len(test_features)))
```
运行此示例首先在开发数据集中加载 1,000 个照片标识符。选择训练和测试集并用于过滤一组干净的照片描述和准备好的图像特征。
我们快到了。
```py
Dataset: 1,000
Train=100, Test=100
Descriptions: train=100, test=100
Photos: train=100, test=100
```
描述文本需要先编码为数字,然后才能像输入中那样呈现给模型,或者与模型的预测进行比较。
编码数据的第一步是创建从单词到唯一整数值的一致映射。 Keras 提供了 Tokenizer 类,可以从加载的描述数据中学习这种映射。
下面定义 _create_tokenizer()_,它将在给定加载的照片描述文本的情况下适合 Tokenizer。
```py
# fit a tokenizer given caption descriptions
def create_tokenizer(descriptions):
lines = list(descriptions.values())
tokenizer = Tokenizer()
tokenizer.fit_on_texts(lines)
return tokenizer
# prepare tokenizer
tokenizer = create_tokenizer(descriptions)
vocab_size = len(tokenizer.word_index) + 1
print('Vocabulary Size: %d' % vocab_size)
```
我们现在可以对文本进行编码。
每个描述将分为单词。该模型将提供一个单词和照片,并生成下一个单词。然后,将描述的前两个单词作为输入提供给模型,以生成下一个单词。这就是模型的训练方式。
例如,输入序列“_ 在场 _ 中运行的小女孩”将被分成 6 个输入 - 输出对来训练模型:
```py
X1, X2 (text sequence), y (word)
photo startseq, little
photo startseq, little, girl
photo startseq, little, girl, running
photo startseq, little, girl, running, in
photo startseq, little, girl, running, in, field
photo startseq, little, girl, running, in, field, endseq
```
稍后,当模型用于生成描述时,生成的单词将被连接并递归地提供作为输入以生成图像的标题。
下面给出标记器 _create_sequences()_ 的函数,单个干净的描述,照片的特征和最大描述长度将为训练模型准备一组输入 - 输出对。调用此函数将返回 _X1_ 和 _X2_ ,用于图像数据和输入序列数据的数组以及输出字的 _y_ 值。
输入序列是整数编码的,输出字是一个热编码的,以表示在整个可能单词的词汇表中预期单词的概率分布。
```py
# create sequences of images, input sequences and output words for an image
def create_sequences(tokenizer, desc, image, max_length):
Ximages, XSeq, y = list(), list(),list()
vocab_size = len(tokenizer.word_index) + 1
# integer encode the description
seq = tokenizer.texts_to_sequences([desc])[0]
# split one sequence into multiple X,y pairs
for i in range(1, len(seq)):
# select
in_seq, out_seq = seq[:i], seq[i]
# pad input sequence
in_seq = pad_sequences([in_seq], maxlen=max_length)[0]
# encode output sequence
out_seq = to_categorical([out_seq], num_classes=vocab_size)[0]
# store
Ximages.append(image)
XSeq.append(in_seq)
y.append(out_seq)
# Ximages, XSeq, y = array(Ximages), array(XSeq), array(y)
return [Ximages, XSeq, y]
```
### 2.适合模型
我们几乎准备好适应这个模型。
已经讨论了模型的部分内容,但让我们重新进行迭代。
该模型基于文章“ [Show and Tell:A Neural Image Caption Generator](https://arxiv.org/abs/1411.4555) ”,2015 年。
该模型包括三个部分:
* **照片功能提取器**。这是在 ImageNet 数据集上预训练的 16 层 VGG 模型。我们使用 VGG 模型(没有顶部)预处理照片,并将使用此模型预测的提取特征作为输入。
* **序列处理器**。这是用于处理文本输入的单词嵌入层,后跟 LSTM 层。 LSTM 输出由 Dense 层一次解释一个输出。
* **口译员(缺少更好的名字)**。特征提取器和序列处理器都输出固定长度的向量,该向量是最大序列的长度。它们连接在一起并由 LSTM 和 Dense 层处理,然后进行最终预测。
在基础模型中使用保守数量的神经元。具体来说,在特征提取器之后的 128 Dense 层,在序列处理器之后是 50 维单词嵌入,接着是 256 单元 LSTM 和 128 神经元密集,最后是 500 单元 LSTM,接着是网络末端的 500 神经元密集。
该模型预测了词汇表中的概率分布,因此使用 softmax 激活函数,并且在拟合网络时最小化分类交叉熵损失函数。
函数 _define_model()_ 定义基线模型,给定词汇量的大小和照片描述的最大长度。 Keras 功能 API 用于定义模型,因为它提供了定义采用两个输入流并组合它们的模型所需的灵活性。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
print(model.summary())
plot_model(model, show_shapes=True, to_file='plot.png')
return model
```
要了解模型的结构,特别是层的形状,请参阅下面列出的摘要。
```py
____________________________________________________________________________________________________
Layer (type) Output Shape Param # Connected to
====================================================================================================
input_1 (InputLayer) (None, 7, 7, 512) 0
____________________________________________________________________________________________________
input_2 (InputLayer) (None, 25) 0
____________________________________________________________________________________________________
global_max_pooling2d_1 (GlobalMa (None, 512) 0 input_1[0][0]
____________________________________________________________________________________________________
embedding_1 (Embedding) (None, 25, 50) 18300 input_2[0][0]
____________________________________________________________________________________________________
dense_1 (Dense) (None, 128) 65664 global_max_pooling2d_1[0][0]
____________________________________________________________________________________________________
lstm_1 (LSTM) (None, 25, 256) 314368 embedding_1[0][0]
____________________________________________________________________________________________________
repeat_vector_1 (RepeatVector) (None, 25, 128) 0 dense_1[0][0]
____________________________________________________________________________________________________
time_distributed_1 (TimeDistribu (None, 25, 128) 32896 lstm_1[0][0]
____________________________________________________________________________________________________
concatenate_1 (Concatenate) (None, 25, 256) 0 repeat_vector_1[0][0]
time_distributed_1[0][0]
____________________________________________________________________________________________________
lstm_2 (LSTM) (None, 500) 1514000 concatenate_1[0][0]
____________________________________________________________________________________________________
dense_3 (Dense) (None, 500) 250500 lstm_2[0][0]
____________________________________________________________________________________________________
dense_4 (Dense) (None, 366) 183366 dense_3[0][0]
====================================================================================================
Total params: 2,379,094
Trainable params: 2,379,094
Non-trainable params: 0
____________________________________________________________________________________________________
```
我们还创建了一个图表来可视化网络结构,更好地帮助理解两个输入流。
![Plot of the Baseline Captioning Deep Learning Model](img/eb076553435ca4d2a366c4b5e7d90a61.jpg)
基线标题深度学习模型的情节
我们将使用数据生成器训练模型。鉴于字幕和提取的照片特征可能作为单个数据集适合存储器,因此严格来说不需要这样做。然而,当您在整个数据集上训练最终模型时,这是一种很好的做法。
调用时,生成器将产生结果。在 Keras 中,它将产生一批输入 - 输出样本,用于估计误差梯度并更新模型权重。
函数 _data_generator()_ 定义数据生成器,给定加载的照片描述字典,照片特征,整数编码序列的分词器以及数据集中的最大序列长度。
生成器永远循环,并在被问及时保持产生批量的输入 - 输出对。我们还有一个 _n_step_ 参数,它允许我们调整每批次要生成的输入输出对的图像数量。平均序列有 10 个字,即 10 个输入 - 输出对,良好的批量大小可能是 30 个样本,大约 2 到 3 个图像值。
```py
# data generator, intended to be used in a call to model.fit_generator()
def data_generator(descriptions, features, tokenizer, max_length, n_step):
# loop until we finish training
while 1:
# loop over photo identifiers in the dataset
keys = list(descriptions.keys())
for i in range(0, len(keys), n_step):
Ximages, XSeq, y = list(), list(),list()
for j in range(i, min(len(keys), i+n_step)):
image_id = keys[j]
# retrieve photo feature input
image = features[image_id][0]
# retrieve text input
desc = descriptions[image_id]
# generate input-output pairs
in_img, in_seq, out_word = create_sequences(tokenizer, desc, image, max_length)
for k in range(len(in_img)):
Ximages.append(in_img[k])
XSeq.append(in_seq[k])
y.append(out_word[k])
# yield this batch of samples to the model
yield [[array(Ximages), array(XSeq)], array(y)]
```
通过调用 _fit_generator()_ 并将其传递给数据生成器以及所需的所有参数,可以拟合模型。在拟合模型时,我们还可以指定每个时期运行的批次数和时期数。
```py
model.fit_generator(data_generator(train_descriptions, train_features, tokenizer, max_length, n_photos_per_update), steps_per_epoch=n_batches_per_epoch, epochs=n_epochs, verbose=verbose)
```
对于这些实验,我们将每批使用 2 个图像,每个时期使用 50 个批次(或 100 个图像),以及 50 个训练时期。您可以在自己的实验中尝试不同的配置。
### 3.评估模型
现在我们知道如何准备数据并定义模型,我们必须定义一个测试工具来评估给定的模型。
我们将通过在数据集上训练模型来评估模型,生成训练数据集中所有照片的描述,使用成本函数评估这些预测,然后多次重复此评估过程。
结果将是模型的技能分数分布,我们可以通过计算平均值和标准差来总结。这是评估深度学习模型的首选方式。看这篇文章:
* [如何评估深度学习模型的技巧](https://machinelearningmastery.com/evaluate-skill-deep-learning-models/)
首先,我们需要能够使用训练有素的模型生成照片的描述。
这包括传入开始描述标记' _startseq_ ',生成一个单词,然后以生成的单词作为输入递归调用模型,直到到达序列标记结尾' _endseq_ '或达到最大描述长度。
以下名为 _generate_desc()_ 的函数实现此行为,并在给定训练模型和给定准备照片作为输入的情况下生成文本描述。它调用函数 _word_for_id()_ 以将整数预测映射回一个字。
```py
# map an integer to a word
def word_for_id(integer, tokenizer):
for word, index in tokenizer.word_index.items():
if index == integer:
return word
return None
# generate a description for an image
def generate_desc(model, tokenizer, photo, max_length):
# seed the generation process
in_text = 'startseq'
# iterate over the whole length of the sequence
for i in range(max_length):
# integer encode input sequence
sequence = tokenizer.texts_to_sequences([in_text])[0]
# pad input
sequence = pad_sequences([sequence], maxlen=max_length)
# predict next word
yhat = model.predict([photo,sequence], verbose=0)
# convert probability to integer
yhat = argmax(yhat)
# map integer to word
word = word_for_id(yhat, tokenizer)
# stop if we cannot map the word
if word is None:
break
# append as input for generating the next word
in_text += ' ' + word
# stop if we predict the end of the sequence
if word == 'endseq':
break
return in_text
```
我们将为训练数据集和测试数据集中的所有照片生成预测。
以下名为 _evaluate_model()_ 的函数将针对给定的照片描述和照片特征数据集评估训练模型。使用语料库 BLEU 分数收集和评估实际和预测的描述,该分数总结了生成的文本与预期文本的接近程度。
```py
# evaluate the skill of the model
def evaluate_model(model, descriptions, photos, tokenizer, max_length):
actual, predicted = list(), list()
# step over the whole set
for key, desc in descriptions.items():
# generate description
yhat = generate_desc(model, tokenizer, photos[key], max_length)
# store actual and predicted
actual.append([desc.split()])
predicted.append(yhat.split())
# calculate BLEU score
bleu = corpus_bleu(actual, predicted)
return bleu
```
BLEU 分数用于文本翻译,用于针对一个或多个参考翻译评估翻译文本。事实上,我们可以访问我们可以比较的每个图像的多个参考描述,但为了简单起见,我们将使用数据集中每张照片的第一个描述(例如清理版本)。
您可以在此处了解有关 BLEU 分数的更多信息:
* 维基百科 [BLEU(双语评估替补)](https://en.wikipedia.org/wiki/BLEU)
NLTK Python 库在 [_corpus_bleu()_ 函数](http://www.nltk.org/api/nltk.translate.html)中实现 BLEU 分数计算。接近 1.0 的较高分数更好,接近零的分数更差。
最后,我们需要做的就是在循环中多次定义,拟合和评估模型,然后报告最终的平均分数。
理想情况下,我们会重复实验 30 次或更多次,但这对我们的小型测试工具来说需要很长时间。相反,将评估模型 3 次。它会更快,但平均分数会有更高的差异。
下面定义了模型评估循环。在运行结束时,训练和测试集的 BLEU 分数的分布被保存到文件中。
```py
# run experiment
train_results, test_results = list(), list()
for i in range(n_repeats):
# define the model
model = define_model(vocab_size, max_length)
# fit model
model.fit_generator(data_generator(train_descriptions, train_features, tokenizer, max_length, n_photos_per_update), steps_per_epoch=n_batches_per_epoch, epochs=n_epochs, verbose=verbose)
# evaluate model on training data
train_score = evaluate_model(model, train_descriptions, train_features, tokenizer, max_length)
test_score = evaluate_model(model, test_descriptions, test_features, tokenizer, max_length)
# store
train_results.append(train_score)
test_results.append(test_score)
print('>%d: train=%f test=%f' % ((i+1), train_score, test_score))
# save results to file
df = DataFrame()
df['train'] = train_results
df['test'] = test_results
print(df.describe())
df.to_csv(model_name+'.csv', index=False)
```
我们按如下方式对运行进行参数化,允许我们命名每次运行并将结果保存到单独的文件中。
```py
# define experiment
model_name = 'baseline1'
verbose = 2
n_epochs = 50
n_photos_per_update = 2
n_batches_per_epoch = int(len(train) / n_photos_per_update)
n_repeats = 3
```
### 4.完成示例
下面列出了完整的示例。
```py
from os import listdir
from numpy import array
from numpy import argmax
from pandas import DataFrame
from nltk.translate.bleu_score import corpus_bleu
from pickle import load
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.utils import to_categorical
from keras.preprocessing.image import load_img
from keras.preprocessing.image import img_to_array
from keras.applications.vgg16 import preprocess_input
from keras.applications.vgg16 import VGG16
from keras.utils import plot_model
from keras.models import Model
from keras.layers import Input
from keras.layers import Dense
from keras.layers import Flatten
from keras.layers import LSTM
from keras.layers import RepeatVector
from keras.layers import TimeDistributed
from keras.layers import Embedding
from keras.layers.merge import concatenate
from keras.layers.pooling import GlobalMaxPooling2D
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load a pre-defined list of photo identifiers
def load_set(filename):
doc = load_doc(filename)
dataset = list()
# process line by line
for line in doc.split('\n'):
# skip empty lines
if len(line) < 1:
continue
# get the image identifier
identifier = line.split('.')[0]
dataset.append(identifier)
return set(dataset)
# split a dataset into train/test elements
def train_test_split(dataset):
# order keys so the split is consistent
ordered = sorted(dataset)
# return split dataset as two new sets
return set(ordered[:100]), set(ordered[100:200])
# load clean descriptions into memory
def load_clean_descriptions(filename, dataset):
# load document
doc = load_doc(filename)
descriptions = dict()
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
# split id from description
image_id, image_desc = tokens[0], tokens[1:]
# skip images not in the set
if image_id in dataset:
# store
descriptions[image_id] = 'startseq ' + ' '.join(image_desc) + ' endseq'
return descriptions
# load photo features
def load_photo_features(filename, dataset):
# load all features
all_features = load(open(filename, 'rb'))
# filter features
features = {k: all_features[k] for k in dataset}
return features
# fit a tokenizer given caption descriptions
def create_tokenizer(descriptions):
lines = list(descriptions.values())
tokenizer = Tokenizer()
tokenizer.fit_on_texts(lines)
return tokenizer
# create sequences of images, input sequences and output words for an image
def create_sequences(tokenizer, desc, image, max_length):
Ximages, XSeq, y = list(), list(),list()
vocab_size = len(tokenizer.word_index) + 1
# integer encode the description
seq = tokenizer.texts_to_sequences([desc])[0]
# split one sequence into multiple X,y pairs
for i in range(1, len(seq)):
# select
in_seq, out_seq = seq[:i], seq[i]
# pad input sequence
in_seq = pad_sequences([in_seq], maxlen=max_length)[0]
# encode output sequence
out_seq = to_categorical([out_seq], num_classes=vocab_size)[0]
# store
Ximages.append(image)
XSeq.append(in_seq)
y.append(out_seq)
# Ximages, XSeq, y = array(Ximages), array(XSeq), array(y)
return [Ximages, XSeq, y]
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
print(model.summary())
plot_model(model, show_shapes=True, to_file='plot.png')
return model
# data generator, intended to be used in a call to model.fit_generator()
def data_generator(descriptions, features, tokenizer, max_length, n_step):
# loop until we finish training
while 1:
# loop over photo identifiers in the dataset
keys = list(descriptions.keys())
for i in range(0, len(keys), n_step):
Ximages, XSeq, y = list(), list(),list()
for j in range(i, min(len(keys), i+n_step)):
image_id = keys[j]
# retrieve photo feature input
image = features[image_id][0]
# retrieve text input
desc = descriptions[image_id]
# generate input-output pairs
in_img, in_seq, out_word = create_sequences(tokenizer, desc, image, max_length)
for k in range(len(in_img)):
Ximages.append(in_img[k])
XSeq.append(in_seq[k])
y.append(out_word[k])
# yield this batch of samples to the model
yield [[array(Ximages), array(XSeq)], array(y)]
# map an integer to a word
def word_for_id(integer, tokenizer):
for word, index in tokenizer.word_index.items():
if index == integer:
return word
return None
# generate a description for an image
def generate_desc(model, tokenizer, photo, max_length):
# seed the generation process
in_text = 'startseq'
# iterate over the whole length of the sequence
for i in range(max_length):
# integer encode input sequence
sequence = tokenizer.texts_to_sequences([in_text])[0]
# pad input
sequence = pad_sequences([sequence], maxlen=max_length)
# predict next word
yhat = model.predict([photo,sequence], verbose=0)
# convert probability to integer
yhat = argmax(yhat)
# map integer to word
word = word_for_id(yhat, tokenizer)
# stop if we cannot map the word
if word is None:
break
# append as input for generating the next word
in_text += ' ' + word
# stop if we predict the end of the sequence
if word == 'endseq':
break
return in_text
# evaluate the skill of the model
def evaluate_model(model, descriptions, photos, tokenizer, max_length):
actual, predicted = list(), list()
# step over the whole set
for key, desc in descriptions.items():
# generate description
yhat = generate_desc(model, tokenizer, photos[key], max_length)
# store actual and predicted
actual.append([desc.split()])
predicted.append(yhat.split())
# calculate BLEU score
bleu = corpus_bleu(actual, predicted)
return bleu
# load dev set
filename = 'Flickr8k_text/Flickr_8k.devImages.txt'
dataset = load_set(filename)
print('Dataset: %d' % len(dataset))
# train-test split
train, test = train_test_split(dataset)
# descriptions
train_descriptions = load_clean_descriptions('descriptions.txt', train)
test_descriptions = load_clean_descriptions('descriptions.txt', test)
print('Descriptions: train=%d, test=%d' % (len(train_descriptions), len(test_descriptions)))
# photo features
train_features = load_photo_features('features.pkl', train)
test_features = load_photo_features('features.pkl', test)
print('Photos: train=%d, test=%d' % (len(train_features), len(test_features)))
# prepare tokenizer
tokenizer = create_tokenizer(train_descriptions)
vocab_size = len(tokenizer.word_index) + 1
print('Vocabulary Size: %d' % vocab_size)
# determine the maximum sequence length
max_length = max(len(s.split()) for s in list(train_descriptions.values()))
print('Description Length: %d' % max_length)
# define experiment
model_name = 'baseline1'
verbose = 2
n_epochs = 50
n_photos_per_update = 2
n_batches_per_epoch = int(len(train) / n_photos_per_update)
n_repeats = 3
# run experiment
train_results, test_results = list(), list()
for i in range(n_repeats):
# define the model
model = define_model(vocab_size, max_length)
# fit model
model.fit_generator(data_generator(train_descriptions, train_features, tokenizer, max_length, n_photos_per_update), steps_per_epoch=n_batches_per_epoch, epochs=n_epochs, verbose=verbose)
# evaluate model on training data
train_score = evaluate_model(model, train_descriptions, train_features, tokenizer, max_length)
test_score = evaluate_model(model, test_descriptions, test_features, tokenizer, max_length)
# store
train_results.append(train_score)
test_results.append(test_score)
print('>%d: train=%f test=%f' % ((i+1), train_score, test_score))
# save results to file
df = DataFrame()
df['train'] = train_results
df['test'] = test_results
print(df.describe())
df.to_csv(model_name+'.csv', index=False)
```
首先运行该示例打印已加载的训练数据的摘要统计信息。
```py
Dataset: 1,000
Descriptions: train=100, test=100
Photos: train=100, test=100
Vocabulary Size: 366
Description Length: 25
```
该示例在 GPU 硬件上需要大约 20 分钟,在 CPU 硬件上需要更长时间。
在运行结束时,训练集上报告的平均 BLEU 为 0.06,测试集上报告为 0.04。结果存储在 _baseline1.csv_ 中。
```py
train test
count 3.000000 3.000000
mean 0.060617 0.040978
std 0.023498 0.025105
min 0.042882 0.012101
25% 0.047291 0.032658
50% 0.051701 0.053215
75% 0.069484 0.055416
max 0.087268 0.057617
```
这提供了用于与备用配置进行比较的基线模型。
### “A”与“A”测试
在我们开始测试模型的变化之前,了解测试装置是否稳定非常重要。
也就是说,5 次运行的模型的总结技巧是否足以控制模型的随机性。
我们可以通过在 A / B 测试区域中所谓的 A 对 A 测试再次运行实验来了解这一点。如果我们再次进行相同的实验,我们期望获得相同的结果;如果我们不这样做,可能需要额外的重复来控制方法的随机性和数据集。
以下是该算法的第二次运行的结果。
```py
train test
count 3.000000 3.000000
mean 0.036902 0.043003
std 0.020281 0.017295
min 0.018522 0.026055
25% 0.026023 0.034192
50% 0.033525 0.042329
75% 0.046093 0.051477
max 0.058660 0.060624
```
我们可以看到该运行获得了非常相似的均值和标准差 BLEU 分数。具体而言,在训练上的平均 BLEU 为 0.03 对 0.06,对于测试为 0.04 至 0.04。
线束有点吵,但足够稳定,可以进行比较。
模特有什么好处吗?
### 生成照片标题
我们希望该模型训练不足,甚至可能在配置下,但是它可以生成任何类型的可读文本吗?
重要的是,基线模型具有一定的能力,以便我们可以将基线的 BLEU 分数与产生什么样的描述质量的想法联系起来。
让我们训练一个模型并从训练和测试集生成一些描述作为健全性检查。
将重复次数更改为 1,将运行名称更改为“ _baseline_generate_ ”。
```py
model_name = 'baseline_generate'
n_repeats = 1
```
然后更新 _evaluate_model()_ 函数以仅评估数据集中的前 5 张照片并打印描述,如下所示。
```py
# evaluate the skill of the model
def evaluate_model(model, descriptions, photos, tokenizer, max_length):
actual, predicted = list(), list()
# step over the whole set
for key, desc in descriptions.items():
# generate description
yhat = generate_desc(model, tokenizer, photos[key], max_length)
# store actual and predicted
actual.append([desc.split()])
predicted.append(yhat.split())
print('Actual: %s' % desc)
print('Predicted: %s' % yhat)
if len(actual) >= 5:
break
# calculate BLEU score
bleu = corpus_bleu(actual, predicted)
return bleu
```
重新运行示例。
您应该看到训练的结果如下所示(具体结果将根据算法的随机性质而变化):
```py
Actual: startseq boy bites hard into treat while he sits outside endseq
Predicted: startseq boy boy while while he while outside endseq
Actual: startseq man in field backed by american flags endseq
Predicted: startseq man in in standing city endseq
Actual: startseq two girls are walking down dirt road in park endseq
Predicted: startseq man walking down down road in endseq
Actual: startseq girl laying on the tree with boy kneeling before her endseq
Predicted: startseq boy while in up up up water endseq
Actual: startseq boy in striped shirt is jumping in front of water fountain endseq
Predicted: startseq man is is shirt is on on on on bike endseq
```
您应该在测试数据集上看到如下结果:
```py
Actual: startseq three people are looking into photographic equipment endseq
Predicted: startseq boy racer on on on on bike endseq
Actual: startseq boy is leaning on chair whilst another boy pulls him around with rope endseq
Predicted: startseq girl in playing on on on sword endseq
Actual: startseq black and brown dog jumping in midair near field endseq
Predicted: startseq dog dog running running running and dog in grass endseq
Actual: startseq dog places his head on man face endseq
Predicted: startseq brown dog dog to to to to to to to ball endseq
Actual: startseq man in green hat is someplace up high endseq
Predicted: startseq man in up up his waves endseq
```
我们可以看到描述并不完美,有些是粗略的,但通常模型会生成一些可读的文本。一个很好的改善起点。
接下来,让我们看一些实验来改变不同子模型的大小或容量。
## 网络大小参数
在本节中,我们将了解网络结构的总体变化如何影响模型技能。
我们将看看模型大小的以下几个方面:
1. '编码器'的固定向量输出的大小。
2. 序列编码器模型的大小。
3. 语言模型的大小。
让我们潜入。
### 固定长度向量的大小
在基线模型中,照片特征提取器和文本序列编码器都输出 128 个元素向量。然后将这些向量连接起来以由语言模型处理。
来自每个子模型的 128 个元素向量包含有关输入序列和照片的所有已知信息。我们可以改变这个向量的大小,看它是否会影响模型技能
首先,我们可以将大小从 128 个元素减少到 64 个元素。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(64, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(64, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
```
我们将此模型命名为“ _size_sm_fixed_vec_ ”。
```py
model_name = 'size_sm_fixed_vec'
```
运行此实验会产生以下 BLEU 分数,可能是测试集上基线的小增益。
```py
train test
count 3.000000 3.000000
mean 0.204421 0.063148
std 0.026992 0.003264
min 0.174769 0.059391
25% 0.192849 0.062074
50% 0.210929 0.064757
75% 0.219246 0.065026
max 0.227564 0.065295
```
我们还可以将固定长度向量的大小从 128 增加到 256 个单位。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(256, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(256, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
```
我们将此配置命名为“ _size_lg_fixed_vec_ ”。
```py
model_name = 'size_lg_fixed_vec'
```
运行此实验显示 BLEU 分数表明该模型并没有更好。
有可能通过更多数据和/或更长时间的训练,我们可能会看到不同的故事。
```py
train test
count 3.000000 3.000000
mean 0.023517 0.027813
std 0.009951 0.010525
min 0.012037 0.021737
25% 0.020435 0.021737
50% 0.028833 0.021737
75% 0.029257 0.030852
max 0.029682 0.039966
```
### 序列编码器大小
我们可以调用子模型来解释生成到目前为止的序列编码器的单词的输入序列。
首先,我们可以尝试降低序列编码器的代表表现力是否会影响模型技能。我们可以将 LSTM 层中的内存单元数从 256 减少到 128。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(128, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'size_sm_seq_model'
```
运行这个例子,我们可以看到两列训练上的小凹凸和基线测试。这可能是小训练集大小的神器。
```py
train test
count 3.000000 3.000000
mean 0.074944 0.053917
std 0.014263 0.013264
min 0.066292 0.039142
25% 0.066713 0.048476
50% 0.067134 0.057810
75% 0.079270 0.061304
max 0.091406 0.064799
```
换句话说,我们可以将 LSTM 层的数量从一个增加到两个,看看是否会产生显着的差异。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = LSTM(256, return_sequences=True)(emb3)
emb5 = TimeDistributed(Dense(128, activation='relu'))(emb4)
# merge inputs
merged = concatenate([fe3, emb5])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'size_lg_seq_model'
```
运行此实验表明 BLEU 在训练和测试装置上都有不错的碰撞。
```py
train test
count 3.000000 3.000000
mean 0.094937 0.096970
std 0.022394 0.079270
min 0.069151 0.046722
25% 0.087656 0.051279
50% 0.106161 0.055836
75% 0.107830 0.122094
max 0.109499 0.188351
```
我们还可以尝试通过将其从 50 维加倍到 100 维来增加单词嵌入的表示能力。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 100, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'size_em_seq_model'
```
我们在训练数据集上看到一个大的运动,但测试数据集上的运动可能很少。
```py
count 3.000000 3.000000
mean 0.112743 0.050935
std 0.017136 0.006860
min 0.096121 0.043741
25% 0.103940 0.047701
50% 0.111759 0.051661
75% 0.121055 0.054533
max 0.130350 0.057404
```
### 语言模型的大小
我们可以参考从连接序列和照片特征输入中学习的模型作为语言模型。它负责生成单词。
首先,我们可以通过将 LSTM 和密集层切割为 500 到 256 个神经元来研究对模型技能的影响。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(256)(merged)
lm3 = Dense(256, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'size_sm_lang_model'
```
我们可以看到,这对 BLEU 对训练和测试数据集的影响都很小,同样可能与数据集的小尺寸有关。
```py
train test
count 3.000000 3.000000
mean 0.063632 0.056059
std 0.018521 0.009064
min 0.045127 0.048916
25% 0.054363 0.050961
50% 0.063599 0.053005
75% 0.072884 0.059630
max 0.082169 0.066256
```
我们还可以通过添加相同大小的第二个 LSTM 层来查看加倍语言模型容量的影响。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500, return_sequences=True)(merged)
lm3 = LSTM(500)(lm2)
lm4 = Dense(500, activation='relu')(lm3)
outputs = Dense(vocab_size, activation='softmax')(lm4)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'size_lg_lang_model'
```
同样,我们看到 BLEU 中的微小运动,可能是噪声和数据集大小的人为因素。测试的改进
测试数据集的改进可能是个好兆头。这可能是一个值得探索的变化。
```py
train test
count 3.000000 3.000000
mean 0.043838 0.067658
std 0.037580 0.045813
min 0.017990 0.015757
25% 0.022284 0.050252
50% 0.026578 0.084748
75% 0.056763 0.093608
max 0.086948 0.102469
```
在更小的数据集上调整模型大小具有挑战性。
## 配置特征提取模型
使用预先训练的 VGG16 模型提供了一些额外的配置点。
基线模型从 VGG 模型中移除了顶部,包括全局最大池化层,然后将特征的编码提供给 128 元素向量。
在本节中,我们将查看对基线模型的以下修改:
1. 在 VGG 模型之后使用全局平均池层。
2. 不使用任何全局池。
### 全球平均汇集
我们可以用 GlobalAveragePooling2D 替换 GlobalMaxPooling2D 层以实现平均池化。
开发全局平均合并以减少图像分类问题的过度拟合,但可以在解释从图像中提取的特征方面提供一些益处。
有关全球平均合并的更多信息,请参阅论文:
* [网络网络](https://arxiv.org/abs/1312.4400),2013 年。
下面列出了更新的 _define_model()_ 函数和实验名称。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalAveragePooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'fe_avg_pool'
```
结果表明训练数据集得到了显着改善,这可能是过度拟合的标志。我们也看到了测试技巧的小幅提升。这可能是一个值得探索的变化。
我们也看到了测试技巧的小幅提升。这可能是一个值得探索的变化。
```py
train test
count 3.000000 3.000000
mean 0.834627 0.060847
std 0.083259 0.040463
min 0.745074 0.017705
25% 0.797096 0.042294
50% 0.849118 0.066884
75% 0.879404 0.082418
max 0.909690 0.097952
```
### 没有合并
我们可以删除 GlobalMaxPooling2D 并展平 3D 照片功能并将其直接送入 Dense 层。
我不认为这是一个很好的模型设计,但值得测试这个假设。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = Flatten()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'fe_flat'
```
令人惊讶的是,我们看到训练数据的小幅提升和测试数据的大幅提升。这对我来说是令人惊讶的,可能值得进一步调查。
```py
train test
count 3.000000 3.000000
mean 0.055988 0.135231
std 0.017566 0.079714
min 0.038605 0.044177
25% 0.047116 0.106633
50% 0.055627 0.169089
75% 0.064679 0.180758
max 0.073731 0.192428
```
我们可以尝试重复此实验,并提供更多容量来解释提取的照片功能。在 Flatten 层之后添加具有 500 个神经元的新 Dense 层。
```py
# define the captioning model
def define_model(vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = Flatten()(inputs1)
fe2 = Dense(500, activation='relu')(fe1)
fe3 = Dense(128, activation='relu')(fe2)
fe4 = RepeatVector(max_length)(fe3)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = Embedding(vocab_size, 50, mask_zero=True)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe4, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'fe_flat2'
```
这导致更改不太令人印象深刻,并且测试数据集上的 BLEU 结果可能更差。
```py
train test
count 3.000000 3.000000
mean 0.060126 0.029487
std 0.030300 0.013205
min 0.031235 0.020850
25% 0.044359 0.021887
50% 0.057483 0.022923
75% 0.074572 0.033805
max 0.091661 0.044688
```
## 词嵌入模型
模型的关键部分是序列学习模型,它必须解释到目前为止为照片生成的单词序列。
在该子模型的输入处是单词嵌入和改进单词嵌入而不是从头开始学习它作为模型的一部分(如在基线模型中)的好方法是使用预训练的单词嵌入。
在本节中,我们将探讨在模型上使用预先训练的单词嵌入的影响。特别:
1. 训练 Word2Vec 模型
2. 训练 Word2Vec 模型+微调
### 训练有素的 word2vec 嵌入
用于从文本语料库预训练单词嵌入的有效学习算法是 word2vec 算法。
您可以在此处了解有关 word2vec 算法的更多信息:
* [Word2Vec Google 代码项目](https://code.google.com/archive/p/word2vec/)
我们可以使用此算法使用数据集中的已清理照片描述来训练新的独立单词向量集。
[Gensim 库](https://radimrehurek.com/gensim/models/word2vec.html)提供对算法实现的访问,我们可以使用它来预先训练嵌入。
首先,我们必须像以前一样加载训练数据集的干净照片描述。
接下来,我们可以在所有干净的描述中使用 word2vec 模型。我们应该注意,这包括比训练数据集中使用的 50 更多的描述。这些实验的更公平的模型应该只训练训练数据集中的那些描述。
一旦适合,我们可以将单词和单词向量保存为 ASCII 文件,可能用于以后的检查或可视化。
```py
# train word2vec model
lines = [s.split() for s in train_descriptions.values()]
model = Word2Vec(lines, size=100, window=5, workers=8, min_count=1)
# summarize vocabulary size in model
words = list(model.wv.vocab)
print('Vocabulary size: %d' % len(words))
# save model in ASCII (word2vec) format
filename = 'custom_embedding.txt'
model.wv.save_word2vec_format(filename, binary=False)
```
单词嵌入保存到文件' _custom_embedding.txt_ '。
现在,我们可以将嵌入加载到内存中,只检索词汇表中单词的单词向量,然后将它们保存到新文件中。
```py
# load the whole embedding into memory
embedding = dict()
file = open('custom_embedding.txt')
for line in file:
values = line.split()
word = values[0]
coefs = asarray(values[1:], dtype='float32')
embedding[word] = coefs
file.close()
print('Embedding Size: %d' % len(embedding))
# summarize vocabulary
all_tokens = ' '.join(train_descriptions.values()).split()
vocabulary = set(all_tokens)
print('Vocabulary Size: %d' % len(vocabulary))
# get the vectors for words in our vocab
cust_embedding = dict()
for word in vocabulary:
# check if word in embedding
if word not in embedding:
continue
cust_embedding[word] = embedding[word]
print('Custom Embedding %d' % len(cust_embedding))
# save
dump(cust_embedding, open('word2vec_embedding.pkl', 'wb'))
print('Saved Embedding')
```
下面列出了完整的示例。
```py
# prepare word vectors for captioning model
from numpy import asarray
from pickle import dump
from gensim.models import Word2Vec
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load a pre-defined list of photo identifiers
def load_set(filename):
doc = load_doc(filename)
dataset = list()
# process line by line
for line in doc.split('\n'):
# skip empty lines
if len(line) < 1:
continue
# get the image identifier
identifier = line.split('.')[0]
dataset.append(identifier)
return set(dataset)
# split a dataset into train/test elements
def train_test_split(dataset):
# order keys so the split is consistent
ordered = sorted(dataset)
# return split dataset as two new sets
return set(ordered[:100]), set(ordered[100:200])
# load clean descriptions into memory
def load_clean_descriptions(filename, dataset):
# load document
doc = load_doc(filename)
descriptions = dict()
for line in doc.split('\n'):
# split line by white space
tokens = line.split()
# split id from description
image_id, image_desc = tokens[0], tokens[1:]
# skip images not in the set
if image_id in dataset:
# store
descriptions[image_id] = 'startseq ' + ' '.join(image_desc) + ' endseq'
return descriptions
# load dev set
filename = 'Flickr8k_text/Flickr_8k.devImages.txt'
dataset = load_set(filename)
print('Dataset: %d' % len(dataset))
# train-test split
train, test = train_test_split(dataset)
print('Train=%d, Test=%d' % (len(train), len(test)))
# descriptions
train_descriptions = load_clean_descriptions('descriptions.txt', train)
print('Descriptions: train=%d' % len(train_descriptions))
# train word2vec model
lines = [s.split() for s in train_descriptions.values()]
model = Word2Vec(lines, size=100, window=5, workers=8, min_count=1)
# summarize vocabulary size in model
words = list(model.wv.vocab)
print('Vocabulary size: %d' % len(words))
# save model in ASCII (word2vec) format
filename = 'custom_embedding.txt'
model.wv.save_word2vec_format(filename, binary=False)
# load the whole embedding into memory
embedding = dict()
file = open('custom_embedding.txt')
for line in file:
values = line.split()
word = values[0]
coefs = asarray(values[1:], dtype='float32')
embedding[word] = coefs
file.close()
print('Embedding Size: %d' % len(embedding))
# summarize vocabulary
all_tokens = ' '.join(train_descriptions.values()).split()
vocabulary = set(all_tokens)
print('Vocabulary Size: %d' % len(vocabulary))
# get the vectors for words in our vocab
cust_embedding = dict()
for word in vocabulary:
# check if word in embedding
if word not in embedding:
continue
cust_embedding[word] = embedding[word]
print('Custom Embedding %d' % len(cust_embedding))
# save
dump(cust_embedding, open('word2vec_embedding.pkl', 'wb'))
print('Saved Embedding')
```
运行此示例将创建存储在文件' _word2vec_embedding.pkl_ '中的单词到单词向量的新字典映射。
```py
Dataset: 1000
Train=100, Test=100
Descriptions: train=100
Vocabulary size: 365
Embedding Size: 366
Vocabulary Size: 365
Custom Embedding 365
Saved Embedding
```
接下来,我们可以加载此嵌入并使用单词向量作为嵌入层中的固定权重。
下面提供 _load_embedding()_ 函数,它加载自定义 word2vec 嵌入并返回新的嵌入层以供在模型中使用。
```py
# load a word embedding
def load_embedding(tokenizer, vocab_size, max_length):
# load the tokenizer
embedding = load(open('word2vec_embedding.pkl', 'rb'))
dimensions = 100
trainable = False
# create a weight matrix for words in training docs
weights = zeros((vocab_size, dimensions))
# walk words in order of tokenizer vocab to ensure vectors are in the right index
for word, i in tokenizer.word_index.items():
if word not in embedding:
continue
weights[i] = embedding[word]
layer = Embedding(vocab_size, dimensions, weights=[weights], input_length=max_length, trainable=trainable, mask_zero=True)
return layer
```
我们可以通过直接从 _define_model()_ 函数调用函数在我们的模型中使用它。
```py
# define the captioning model
def define_model(tokenizer, vocab_size, max_length):
# feature extractor (encoder)
inputs1 = Input(shape=(7, 7, 512))
fe1 = GlobalMaxPooling2D()(inputs1)
fe2 = Dense(128, activation='relu')(fe1)
fe3 = RepeatVector(max_length)(fe2)
# embedding
inputs2 = Input(shape=(max_length,))
emb2 = load_embedding(tokenizer, vocab_size, max_length)(inputs2)
emb3 = LSTM(256, return_sequences=True)(emb2)
emb4 = TimeDistributed(Dense(128, activation='relu'))(emb3)
# merge inputs
merged = concatenate([fe3, emb4])
# language model (decoder)
lm2 = LSTM(500)(merged)
lm3 = Dense(500, activation='relu')(lm2)
outputs = Dense(vocab_size, activation='softmax')(lm3)
# tie it together [image, seq] [word]
model = Model(inputs=[inputs1, inputs2], outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
model_name = 'seq_w2v_fixed'
```
我们可以在训练数据集上看到一些提升,也许在测试数据集上没有真正显着的变化。
```py
train test
count 3.000000 3.000000
mean 0.096780 0.047540
std 0.055073 0.008445
min 0.033511 0.038340
25% 0.078186 0.043840
50% 0.122861 0.049341
75% 0.128414 0.052140
max 0.133967 0.054939
```
### 训练有素的 word2vec 嵌入微调
我们可以重复之前的实验,并允许模型在拟合模型时调整单词向量。
下面列出了允许微调嵌入层的更新的 _load_embedding()_ 功能。
```py
# load a word embedding
def load_embedding(tokenizer, vocab_size, max_length):
# load the tokenizer
embedding = load(open('word2vec_embedding.pkl', 'rb'))
dimensions = 100
trainable = True
# create a weight matrix for words in training docs
weights = zeros((vocab_size, dimensions))
# walk words in order of tokenizer vocab to ensure vectors are in the right index
for word, i in tokenizer.word_index.items():
if word not in embedding:
continue
weights[i] = embedding[word]
layer = Embedding(vocab_size, dimensions, weights=[weights], input_length=max_length, trainable=trainable, mask_zero=True)
return layer
model_name = 'seq_w2v_tuned'
```
同样,我们认为在基线模型中使用这些预先训练的字嵌入向量并没有太大差异。
```py
train test
count 3.000000 3.000000
mean 0.065297 0.042712
std 0.080194 0.007697
min 0.017675 0.034593
25% 0.019003 0.039117
50% 0.020332 0.043641
75% 0.089108 0.046772
max 0.157885 0.049904
```
## 结果分析
我们对来自 8,000 张照片的 Flickr8k 训练数据集的非常小的样本(1.6%)进行了一些实验。
样本可能太小,模型没有经过足够长时间的训练,并且每个模型的 3 次重复会导致过多的变化。这些方面也可以通过设计实验来评估,例如:
1. 模型技能是否随着数据集的大小而缩放?
2. 更多的时代会带来更好的技能吗?
3. 更多重复会产生一个方差较小的技能吗?
尽管如此,我们对如何为更全面的数据集配置模型有一些想法。
以下是本教程中进行的实验的平均结果摘要。
查看结果图表很有帮助。如果我们有更多的重复,每个分数分布的盒子和胡须图可能是一个很好的可视化。这里我们使用一个简单的条形图。请记住,较大的 BLEU 分数更好。
训练数据集的结果:
![Bar Chart of Experiment vs Model Skill on the Training Dataset](img/06296eb24404348507d2d48f948c0313.jpg)
实验条形图与训练数据集的模型技巧
测试数据集上的结果:
![Bar Chart of Experiment vs Model Skill on the Test Dataset](img/e69be5d66733a6d148d48cf818a04539.jpg)
实验条形图与测试数据集的模型技巧
从仅查看测试数据集的平均结果,我们可以建议:
* 在照片特征提取器(fe_flat 在 0.135231)之后可能不需要合并。
* 在照片特征提取器(fe_avg_pool 为 0.060847)之后,平均合并可能比最大合并更有优势。
* 也许在子模型之后的较小尺寸的固定长度向量是一个好主意(size_sm_fixed_vec 在 0.063148)。
* 也许在语言模型中添加更多层可以带来一些好处(size_lg_lang_model 为 0.067658)。
* 也许在序列模型中添加更多层可以带来一些好处(size_lg_seq_model 为 0.09697)。
我还建议探索这些建议的组合。
我们还可以查看结果的分布。
下面是一些代码,用于加载每个实验的保存结果,并在训练和测试集上创建结果的盒子和须状图以供审查。
```py
from os import listdir
from pandas import read_csv
from pandas import DataFrame
from matplotlib import pyplot
# load all .csv results into a dataframe
train, test = DataFrame(), DataFrame()
directory = 'results'
for name in listdir(directory):
if not name.endswith('csv'):
continue
filename = directory + '/' + name
data = read_csv(filename, header=0)
experiment = name.split('.')[0]
train[experiment] = data['train']
test[experiment] = data['test']
# plot results on train
train.boxplot(vert=False)
pyplot.show()
# plot results on test
test.boxplot(vert=False)
pyplot.show()
```
在训练数据集上分配结果。
![Box and Whisker Plot of Experiment vs Model Skill on the Training Dataset](img/85c1ebb9ffbbcd5c80fc50b1c3b07ef9.jpg)
训练数据集中实验与模型技巧的盒子和晶须图
在测试数据集上分配结果。
![Box and Whisker Plot of Experiment vs Model Skill on the Test Dataset](img/7c30315b0ae45ddd0d650b0ed6c36d67.jpg)
测试数据集的实验与模型技巧的盒子和晶须图
对这些分布的审查表明:
* 平面上的利差很大;也许平均合并可能更安全。
* 较大的语言模型的传播很大,并且在错误/危险的方向上倾斜。
* 较大序列模型上的扩散很大,并且向右倾斜。
* 较小的固定长度向量大小可能有一些好处。
我预计增加重复到 5,10 或 30 会稍微收紧这些分布。
## 进一步阅读
如果您要深入了解,本节将提供有关该主题的更多资源。
### 文件
* [Show and Tell:神经图像标题生成器](https://arxiv.org/abs/1411.4555),2015。
* [显示,参与和讲述:视觉注意的神经图像标题生成](https://arxiv.org/abs/1502.03044),2016。
* [网络网络](https://arxiv.org/abs/1312.4400),2013 年。
### 相关字幕项目
* [caption_generator:图片字幕项目](https://github.com/anuragmishracse/caption_generator)
* [Keras 图片标题](https://github.com/LemonATsu/Keras-Image-Caption)
* [神经图像字幕(NIC)](https://github.com/oarriaga/neural_image_captioning)
* [Keras 深度学习图像标题检索](https://deeplearningmania.quora.com/Keras-deep-learning-for-image-caption-retrieval)
* [DataLab Cup 2:图像字幕](http://www.cs.nthu.edu.tw/~shwu/courses/ml/competitions/02_Image-Caption/02_Image-Caption.html)
### 其他
* [将图像描述框架化为排名任务:数据,模型和评估指标](http://nlp.cs.illinois.edu/HockenmaierGroup/Framing_Image_Description/KCCA.html)。
### API
* [Keras VGG16 API](https://keras.io/applications/#vgg16)
* [Gensim word2vec API](https://radimrehurek.com/gensim/models/word2vec.html)
## 摘要
在本教程中,您了解了如何使用照片字幕数据集的一小部分样本来探索不同的模型设计。
具体来说,你学到了:
* 如何为照片字幕建模准备数据。
* 如何设计基线和测试工具来评估模型的技能和控制其随机性。
* 如何评估模型技能,特征提取模型和单词嵌入等属性,以提升模型技能。
你能想到什么实验?
你还尝试了什么?
您可以在训练和测试数据集上获得哪些最佳结果?
请在下面的评论中告诉我。
- Machine Learning Mastery 应用机器学习教程
- 5竞争机器学习的好处
- 过度拟合的简单直觉,或者为什么测试训练数据是一个坏主意
- 特征选择简介
- 应用机器学习作为一个搜索问题的温和介绍
- 为什么应用机器学习很难
- 为什么我的结果不如我想的那么好?你可能过度拟合了
- 用ROC曲线评估和比较分类器表现
- BigML评论:发现本机学习即服务平台的聪明功能
- BigML教程:开发您的第一个决策树并进行预测
- 构建生产机器学习基础设施
- 分类准确性不够:可以使用更多表现测量
- 一种预测模型的巧妙应用
- 机器学习项目中常见的陷阱
- 数据清理:将凌乱的数据转换为整洁的数据
- 机器学习中的数据泄漏
- 数据,学习和建模
- 数据管理至关重要以及为什么需要认真对待它
- 将预测模型部署到生产中
- 参数和超参数之间有什么区别?
- 测试和验证数据集之间有什么区别?
- 发现特征工程,如何设计特征以及如何获得它
- 如何开始使用Kaggle
- 超越预测
- 如何在评估机器学习算法时选择正确的测试选项
- 如何定义机器学习问题
- 如何评估机器学习算法
- 如何获得基线结果及其重要性
- 如何充分利用机器学习数据
- 如何识别数据中的异常值
- 如何提高机器学习效果
- 如何在竞争机器学习中踢屁股
- 如何知道您的机器学习模型是否具有良好的表现
- 如何布局和管理您的机器学习项目
- 如何为机器学习准备数据
- 如何减少最终机器学习模型中的方差
- 如何使用机器学习结果
- 如何解决像数据科学家这样的问题
- 通过数据预处理提高模型精度
- 处理机器学习的大数据文件的7种方法
- 建立机器学习系统的经验教训
- 如何使用机器学习清单可靠地获得准确的预测(即使您是初学者)
- 机器学习模型运行期间要做什么
- 机器学习表现改进备忘单
- 来自世界级从业者的机器学习技巧:Phil Brierley
- 模型预测精度与机器学习中的解释
- 竞争机器学习的模型选择技巧
- 机器学习需要多少训练数据?
- 如何系统地规划和运行机器学习实验
- 应用机器学习过程
- 默认情况下可重现的机器学习结果
- 10个实践应用机器学习的标准数据集
- 简单的三步法到最佳机器学习算法
- 打击机器学习数据集中不平衡类的8种策略
- 模型表现不匹配问题(以及如何处理)
- 黑箱机器学习的诱惑陷阱
- 如何培养最终的机器学习模型
- 使用探索性数据分析了解您的问题并获得更好的结果
- 什么是数据挖掘和KDD
- 为什么One-Hot在机器学习中编码数据?
- 为什么你应该在你的机器学习问题上进行抽样检查算法
- 所以,你正在研究机器学习问题......
- Machine Learning Mastery Keras 深度学习教程
- Keras 中神经网络模型的 5 步生命周期
- 在 Python 迷你课程中应用深度学习
- Keras 深度学习库的二元分类教程
- 如何用 Keras 构建多层感知器神经网络模型
- 如何在 Keras 中检查深度学习模型
- 10 个用于 Amazon Web Services 深度学习的命令行秘籍
- 机器学习卷积神经网络的速成课程
- 如何在 Python 中使用 Keras 进行深度学习的度量
- 深度学习书籍
- 深度学习课程
- 你所知道的深度学习是一种谎言
- 如何设置 Amazon AWS EC2 GPU 以训练 Keras 深度学习模型(分步)
- 神经网络中批量和迭代之间的区别是什么?
- 在 Keras 展示深度学习模型训练历史
- 基于 Keras 的深度学习模型中的dropout正则化
- 评估 Keras 中深度学习模型的表现
- 如何评价深度学习模型的技巧
- 小批量梯度下降的简要介绍以及如何配置批量大小
- 在 Keras 中获得深度学习帮助的 9 种方法
- 如何使用 Keras 在 Python 中网格搜索深度学习模型的超参数
- 用 Keras 在 Python 中使用卷积神经网络进行手写数字识别
- 如何用 Keras 进行预测
- 用 Keras 进行深度学习的图像增强
- 8 个深度学习的鼓舞人心的应用
- Python 深度学习库 Keras 简介
- Python 深度学习库 TensorFlow 简介
- Python 深度学习库 Theano 简介
- 如何使用 Keras 函数式 API 进行深度学习
- Keras 深度学习库的多类分类教程
- 多层感知器神经网络速成课程
- 基于卷积神经网络的 Keras 深度学习库中的目标识别
- 流行的深度学习库
- 用深度学习预测电影评论的情感
- Python 中的 Keras 深度学习库的回归教程
- 如何使用 Keras 获得可重现的结果
- 如何在 Linux 服务器上运行深度学习实验
- 保存并加载您的 Keras 深度学习模型
- 用 Keras 逐步开发 Python 中的第一个神经网络
- 用 Keras 理解 Python 中的有状态 LSTM 循环神经网络
- 在 Python 中使用 Keras 深度学习模型和 Scikit-Learn
- 如何使用预训练的 VGG 模型对照片中的物体进行分类
- 在 Python 和 Keras 中对深度学习模型使用学习率调度
- 如何在 Keras 中可视化深度学习神经网络模型
- 什么是深度学习?
- 何时使用 MLP,CNN 和 RNN 神经网络
- 为什么用随机权重初始化神经网络?
- Machine Learning Mastery 深度学习 NLP 教程
- 深度学习在自然语言处理中的 7 个应用
- 如何实现自然语言处理的波束搜索解码器
- 深度学习文档分类的最佳实践
- 关于自然语言处理的热门书籍
- 在 Python 中计算文本 BLEU 分数的温和介绍
- 使用编码器 - 解码器模型的用于字幕生成的注入和合并架构
- 如何用 Python 清理机器学习的文本
- 如何配置神经机器翻译的编码器 - 解码器模型
- 如何开始深度学习自然语言处理(7 天迷你课程)
- 自然语言处理的数据集
- 如何开发一种深度学习的词袋模型来预测电影评论情感
- 深度学习字幕生成模型的温和介绍
- 如何在 Keras 中定义神经机器翻译的编码器 - 解码器序列 - 序列模型
- 如何利用小实验在 Keras 中开发字幕生成模型
- 如何从头开发深度学习图片标题生成器
- 如何在 Keras 中开发基于字符的神经语言模型
- 如何开发用于情感分析的 N-gram 多通道卷积神经网络
- 如何从零开始开发神经机器翻译系统
- 如何在 Python 中用 Keras 开发基于单词的神经语言模型
- 如何开发一种预测电影评论情感的词嵌入模型
- 如何使用 Gensim 在 Python 中开发词嵌入
- 用于文本摘要的编码器 - 解码器深度学习模型
- Keras 中文本摘要的编码器 - 解码器模型
- 用于神经机器翻译的编码器 - 解码器循环神经网络模型
- 浅谈词袋模型
- 文本摘要的温和介绍
- 编码器 - 解码器循环神经网络中的注意力如何工作
- 如何利用深度学习自动生成照片的文本描述
- 如何开发一个单词级神经语言模型并用它来生成文本
- 浅谈神经机器翻译
- 什么是自然语言处理?
- 牛津自然语言处理深度学习课程
- 如何为机器翻译准备法语到英语的数据集
- 如何为情感分析准备电影评论数据
- 如何为文本摘要准备新闻文章
- 如何准备照片标题数据集以训练深度学习模型
- 如何使用 Keras 为深度学习准备文本数据
- 如何使用 scikit-learn 为机器学习准备文本数据
- 自然语言处理神经网络模型入门
- 对自然语言处理的深度学习的承诺
- 在 Python 中用 Keras 进行 LSTM 循环神经网络的序列分类
- 斯坦福自然语言处理深度学习课程评价
- 统计语言建模和神经语言模型的简要介绍
- 使用 Keras 在 Python 中进行 LSTM 循环神经网络的文本生成
- 浅谈机器学习中的转换
- 如何使用 Keras 将词嵌入层用于深度学习
- 什么是用于文本的词嵌入
- Machine Learning Mastery 深度学习时间序列教程
- 如何开发人类活动识别的一维卷积神经网络模型
- 人类活动识别的深度学习模型
- 如何评估人类活动识别的机器学习算法
- 时间序列预测的多层感知器网络探索性配置
- 比较经典和机器学习方法进行时间序列预测的结果
- 如何通过深度学习快速获得时间序列预测的结果
- 如何利用 Python 处理序列预测问题中的缺失时间步长
- 如何建立预测大气污染日的概率预测模型
- 如何开发一种熟练的机器学习时间序列预测模型
- 如何构建家庭用电自回归预测模型
- 如何开发多步空气污染时间序列预测的自回归预测模型
- 如何制定多站点多元空气污染时间序列预测的基线预测
- 如何开发时间序列预测的卷积神经网络模型
- 如何开发卷积神经网络用于多步时间序列预测
- 如何开发单变量时间序列预测的深度学习模型
- 如何开发 LSTM 模型用于家庭用电的多步时间序列预测
- 如何开发 LSTM 模型进行时间序列预测
- 如何开发多元多步空气污染时间序列预测的机器学习模型
- 如何开发多层感知器模型进行时间序列预测
- 如何开发人类活动识别时间序列分类的 RNN 模型
- 如何开始深度学习的时间序列预测(7 天迷你课程)
- 如何网格搜索深度学习模型进行时间序列预测
- 如何对单变量时间序列预测的网格搜索朴素方法
- 如何在 Python 中搜索 SARIMA 模型超参数用于时间序列预测
- 如何在 Python 中进行时间序列预测的网格搜索三次指数平滑
- 一个标准的人类活动识别问题的温和介绍
- 如何加载和探索家庭用电数据
- 如何加载,可视化和探索复杂的多变量多步时间序列预测数据集
- 如何从智能手机数据模拟人类活动
- 如何根据环境因素预测房间占用率
- 如何使用脑波预测人眼是开放还是闭合
- 如何在 Python 中扩展长短期内存网络的数据
- 如何使用 TimeseriesGenerator 进行 Keras 中的时间序列预测
- 基于机器学习算法的室内运动时间序列分类
- 用于时间序列预测的状态 LSTM 在线学习的不稳定性
- 用于罕见事件时间序列预测的 LSTM 模型体系结构
- 用于时间序列预测的 4 种通用机器学习数据变换
- Python 中长短期记忆网络的多步时间序列预测
- 家庭用电机器学习的多步时间序列预测
- Keras 中 LSTM 的多变量时间序列预测
- 如何开发和评估朴素的家庭用电量预测方法
- 如何为长短期记忆网络准备单变量时间序列数据
- 循环神经网络在时间序列预测中的应用
- 如何在 Python 中使用差异变换删除趋势和季节性
- 如何在 LSTM 中种子状态用于 Python 中的时间序列预测
- 使用 Python 进行时间序列预测的有状态和无状态 LSTM
- 长短时记忆网络在时间序列预测中的适用性
- 时间序列预测问题的分类
- Python 中长短期记忆网络的时间序列预测
- 基于 Keras 的 Python 中 LSTM 循环神经网络的时间序列预测
- Keras 中深度学习的时间序列预测
- 如何用 Keras 调整 LSTM 超参数进行时间序列预测
- 如何在时间序列预测训练期间更新 LSTM 网络
- 如何使用 LSTM 网络的 Dropout 进行时间序列预测
- 如何使用 LSTM 网络中的特征进行时间序列预测
- 如何在 LSTM 网络中使用时间序列进行时间序列预测
- 如何利用 LSTM 网络进行权重正则化进行时间序列预测
- Machine Learning Mastery 线性代数教程
- 机器学习数学符号的基础知识
- 用 NumPy 阵列轻松介绍广播
- 如何从 Python 中的 Scratch 计算主成分分析(PCA)
- 用于编码器审查的计算线性代数
- 10 机器学习中的线性代数示例
- 线性代数的温和介绍
- 用 NumPy 轻松介绍 Python 中的 N 维数组
- 机器学习向量的温和介绍
- 如何在 Python 中为机器学习索引,切片和重塑 NumPy 数组
- 机器学习的矩阵和矩阵算法简介
- 温和地介绍机器学习的特征分解,特征值和特征向量
- NumPy 对预期价值,方差和协方差的简要介绍
- 机器学习矩阵分解的温和介绍
- 用 NumPy 轻松介绍机器学习的张量
- 用于机器学习的线性代数中的矩阵类型简介
- 用于机器学习的线性代数备忘单
- 线性代数的深度学习
- 用于机器学习的线性代数(7 天迷你课程)
- 机器学习的线性代数
- 机器学习矩阵运算的温和介绍
- 线性代数评论没有废话指南
- 学习机器学习线性代数的主要资源
- 浅谈机器学习的奇异值分解
- 如何用线性代数求解线性回归
- 用于机器学习的稀疏矩阵的温和介绍
- 机器学习中向量规范的温和介绍
- 学习线性代数用于机器学习的 5 个理由
- Machine Learning Mastery LSTM 教程
- Keras中长短期记忆模型的5步生命周期
- 长短时记忆循环神经网络的注意事项
- CNN长短期记忆网络
- 逆向神经网络中的深度学习速成课程
- 可变长度输入序列的数据准备
- 如何用Keras开发用于Python序列分类的双向LSTM
- 如何开发Keras序列到序列预测的编码器 - 解码器模型
- 如何诊断LSTM模型的过度拟合和欠拟合
- 如何开发一种编码器 - 解码器模型,注重Keras中的序列到序列预测
- 编码器 - 解码器长短期存储器网络
- 神经网络中爆炸梯度的温和介绍
- 对时间反向传播的温和介绍
- 生成长短期记忆网络的温和介绍
- 专家对长短期记忆网络的简要介绍
- 在序列预测问题上充分利用LSTM
- 编辑器 - 解码器循环神经网络全局注意的温和介绍
- 如何利用长短时记忆循环神经网络处理很长的序列
- 如何在Python中对一个热编码序列数据
- 如何使用编码器 - 解码器LSTM来回显随机整数序列
- 具有注意力的编码器 - 解码器RNN体系结构的实现模式
- 学习使用编码器解码器LSTM循环神经网络添加数字
- 如何学习长短时记忆循环神经网络回声随机整数
- 具有Keras的长短期记忆循环神经网络的迷你课程
- LSTM自动编码器的温和介绍
- 如何用Keras中的长短期记忆模型进行预测
- 用Python中的长短期内存网络演示内存
- 基于循环神经网络的序列预测模型的简要介绍
- 深度学习的循环神经网络算法之旅
- 如何重塑Keras中长短期存储网络的输入数据
- 了解Keras中LSTM的返回序列和返回状态之间的差异
- RNN展开的温和介绍
- 5学习LSTM循环神经网络的简单序列预测问题的例子
- 使用序列进行预测
- 堆叠长短期内存网络
- 什么是教师强制循环神经网络?
- 如何在Python中使用TimeDistributed Layer for Long Short-Term Memory Networks
- 如何准备Keras中截断反向传播的序列预测
- 如何在使用LSTM进行训练和预测时使用不同的批量大小
- Machine Learning Mastery 机器学习算法教程
- 机器学习算法之旅
- 用于机器学习的装袋和随机森林集合算法
- 从头开始实施机器学习算法的好处
- 更好的朴素贝叶斯:从朴素贝叶斯算法中获取最多的12个技巧
- 机器学习的提升和AdaBoost
- 选择机器学习算法:Microsoft Azure的经验教训
- 机器学习的分类和回归树
- 什么是机器学习中的混淆矩阵
- 如何使用Python从头开始创建算法测试工具
- 通过创建机器学习算法的目标列表来控制
- 从头开始停止编码机器学习算法
- 在实现机器学习算法时,不要从开源代码开始
- 不要使用随机猜测作为基线分类器
- 浅谈机器学习中的概念漂移
- 温和介绍机器学习中的偏差 - 方差权衡
- 机器学习的梯度下降
- 机器学习算法如何工作(他们学习输入到输出的映射)
- 如何建立机器学习算法的直觉
- 如何实现机器学习算法
- 如何研究机器学习算法行为
- 如何学习机器学习算法
- 如何研究机器学习算法
- 如何研究机器学习算法
- 如何在Python中从头开始实现反向传播算法
- 如何用Python从头开始实现Bagging
- 如何用Python从头开始实现基线机器学习算法
- 如何在Python中从头开始实现决策树算法
- 如何用Python从头开始实现学习向量量化
- 如何利用Python从头开始随机梯度下降实现线性回归
- 如何利用Python从头开始随机梯度下降实现Logistic回归
- 如何用Python从头开始实现机器学习算法表现指标
- 如何在Python中从头开始实现感知器算法
- 如何在Python中从零开始实现随机森林
- 如何在Python中从头开始实现重采样方法
- 如何用Python从头开始实现简单线性回归
- 如何用Python从头开始实现堆栈泛化(Stacking)
- K-Nearest Neighbors for Machine Learning
- 学习机器学习的向量量化
- 机器学习的线性判别分析
- 机器学习的线性回归
- 使用梯度下降进行机器学习的线性回归教程
- 如何在Python中从头开始加载机器学习数据
- 机器学习的Logistic回归
- 机器学习的Logistic回归教程
- 机器学习算法迷你课程
- 如何在Python中从头开始实现朴素贝叶斯
- 朴素贝叶斯机器学习
- 朴素贝叶斯机器学习教程
- 机器学习算法的过拟合和欠拟合
- 参数化和非参数机器学习算法
- 理解任何机器学习算法的6个问题
- 在机器学习中拥抱随机性
- 如何使用Python从头开始扩展机器学习数据
- 机器学习的简单线性回归教程
- 有监督和无监督的机器学习算法
- 用于机器学习的支持向量机
- 在没有数学背景的情况下理解机器学习算法的5种技术
- 最好的机器学习算法
- 教程从头开始在Python中实现k-Nearest Neighbors
- 通过从零开始实现它们来理解机器学习算法(以及绕过坏代码的策略)
- 使用随机森林:在121个数据集上测试179个分类器
- 为什么从零开始实现机器学习算法
- Machine Learning Mastery 机器学习入门教程
- 机器学习入门的四个步骤:初学者入门与实践的自上而下策略
- 你应该培养的 5 个机器学习领域
- 一种选择机器学习算法的数据驱动方法
- 机器学习中的分析与数值解
- 应用机器学习是一种精英政治
- 机器学习的基本概念
- 如何成为数据科学家
- 初学者如何在机器学习中弄错
- 机器学习的最佳编程语言
- 构建机器学习组合
- 机器学习中分类与回归的区别
- 评估自己作为数据科学家并利用结果建立惊人的数据科学团队
- 探索 Kaggle 大师的方法论和心态:对 Diogo Ferreira 的采访
- 扩展机器学习工具并展示掌握
- 通过寻找地标开始机器学习
- 温和地介绍预测建模
- 通过提供结果在机器学习中获得梦想的工作
- 如何开始机器学习:自学蓝图
- 开始并在机器学习方面取得进展
- 应用机器学习的 Hello World
- 初学者如何使用小型项目开始机器学习并在 Kaggle 上进行竞争
- 我如何开始机器学习? (简短版)
- 我是如何开始机器学习的
- 如何在机器学习中取得更好的成绩
- 如何从在银行工作到担任 Target 的高级数据科学家
- 如何学习任何机器学习工具
- 使用小型目标项目深入了解机器学习工具
- 获得付费申请机器学习
- 映射机器学习工具的景观
- 机器学习开发环境
- 机器学习金钱
- 程序员的机器学习
- 机器学习很有意思
- 机器学习是 Kaggle 比赛
- 机器学习现在很受欢迎
- 机器学习掌握方法
- 机器学习很重要
- 机器学习 Q&amp; A:概念漂移,更好的结果和学习更快
- 缺乏自学机器学习的路线图
- 机器学习很重要
- 快速了解任何机器学习工具(即使您是初学者)
- 机器学习工具
- 找到你的机器学习部落
- 机器学习在一年
- 通过竞争一致的大师 Kaggle
- 5 程序员在机器学习中开始犯错误
- 哲学毕业生到机器学习从业者(Brian Thomas 采访)
- 机器学习入门的实用建议
- 实用机器学习问题
- 使用来自 UCI 机器学习库的数据集练习机器学习
- 使用秘籍的任何机器学习工具快速启动
- 程序员可以进入机器学习
- 程序员应该进入机器学习
- 项目焦点:Shashank Singh 的人脸识别
- 项目焦点:使用 Mahout 和 Konstantin Slisenko 进行堆栈交换群集
- 机器学习自学指南
- 4 个自学机器学习项目
- ÁlvaroLemos 如何在数据科学团队中获得机器学习实习
- 如何思考机器学习
- 现实世界机器学习问题之旅
- 有关机器学习的有用知识
- 如果我没有学位怎么办?
- 如果我不是一个优秀的程序员怎么办?
- 如果我不擅长数学怎么办?
- 为什么机器学习算法会处理以前从未见过的数据?
- 是什么阻碍了你的机器学习目标?
- 什么是机器学习?
- 机器学习适合哪里?
- 为什么要进入机器学习?
- 研究对您来说很重要的机器学习问题
- 你这样做是错的。为什么机器学习不必如此困难
- Machine Learning Mastery Sklearn 教程
- Scikit-Learn 的温和介绍:Python 机器学习库
- 使用 Python 管道和 scikit-learn 自动化机器学习工作流程
- 如何以及何时使用带有 scikit-learn 的校准分类模型
- 如何比较 Python 中的机器学习算法与 scikit-learn
- 用于机器学习开发人员的 Python 崩溃课程
- 用 scikit-learn 在 Python 中集成机器学习算法
- 使用重采样评估 Python 中机器学习算法的表现
- 使用 Scikit-Learn 在 Python 中进行特征选择
- Python 中机器学习的特征选择
- 如何使用 scikit-learn 在 Python 中生成测试数据集
- scikit-learn 中的机器学习算法秘籍
- 如何使用 Python 处理丢失的数据
- 如何开始使用 Python 进行机器学习
- 如何使用 Scikit-Learn 在 Python 中加载数据
- Python 中概率评分方法的简要介绍
- 如何用 Scikit-Learn 调整算法参数
- 如何在 Mac OS X 上安装 Python 3 环境以进行机器学习和深度学习
- 使用 scikit-learn 进行机器学习简介
- 从 shell 到一本带有 Fernando Perez 单一工具的书的 IPython
- 如何使用 Python 3 为机器学习开发创建 Linux 虚拟机
- 如何在 Python 中加载机器学习数据
- 您在 Python 中的第一个机器学习项目循序渐进
- 如何使用 scikit-learn 进行预测
- 用于评估 Python 中机器学习算法的度量标准
- 使用 Pandas 为 Python 中的机器学习准备数据
- 如何使用 Scikit-Learn 为 Python 机器学习准备数据
- 项目焦点:使用 Artem Yankov 在 Python 中进行事件推荐
- 用于机器学习的 Python 生态系统
- Python 是应用机器学习的成长平台
- Python 机器学习书籍
- Python 机器学习迷你课程
- 使用 Pandas 快速和肮脏的数据分析
- 使用 Scikit-Learn 重新调整 Python 中的机器学习数据
- 如何以及何时使用 ROC 曲线和精确调用曲线进行 Python 分类
- 使用 scikit-learn 在 Python 中保存和加载机器学习模型
- scikit-learn Cookbook 书评
- 如何使用 Anaconda 为机器学习和深度学习设置 Python 环境
- 使用 scikit-learn 在 Python 中进行 Spot-Check 分类机器学习算法
- 如何在 Python 中开发可重复使用的抽样检查算法框架
- 使用 scikit-learn 在 Python 中进行 Spot-Check 回归机器学习算法
- 使用 Python 中的描述性统计来了解您的机器学习数据
- 使用 OpenCV,Python 和模板匹配来播放“哪里是 Waldo?”
- 使用 Pandas 在 Python 中可视化机器学习数据
- Machine Learning Mastery 统计学教程
- 浅谈计算正态汇总统计量
- 非参数统计的温和介绍
- Python中常态测试的温和介绍
- 浅谈Bootstrap方法
- 浅谈机器学习的中心极限定理
- 浅谈机器学习中的大数定律
- 机器学习的所有统计数据
- 如何计算Python中机器学习结果的Bootstrap置信区间
- 浅谈机器学习的Chi-Squared测试
- 机器学习的置信区间
- 随机化在机器学习中解决混杂变量的作用
- 机器学习中的受控实验
- 机器学习统计学速成班
- 统计假设检验的关键值以及如何在Python中计算它们
- 如何在机器学习中谈论数据(统计学和计算机科学术语)
- Python中数据可视化方法的简要介绍
- Python中效果大小度量的温和介绍
- 估计随机机器学习算法的实验重复次数
- 机器学习评估统计的温和介绍
- 如何计算Python中的非参数秩相关性
- 如何在Python中计算数据的5位数摘要
- 如何在Python中从头开始编写学生t检验
- 如何在Python中生成随机数
- 如何转换数据以更好地拟合正态分布
- 如何使用相关来理解变量之间的关系
- 如何使用统计信息识别数据中的异常值
- 用于Python机器学习的随机数生成器简介
- k-fold交叉验证的温和介绍
- 如何计算McNemar的比较两种机器学习量词的测试
- Python中非参数统计显着性测试简介
- 如何在Python中使用参数统计显着性测试
- 机器学习的预测间隔
- 应用统计学与机器学习的密切关系
- 如何使用置信区间报告分类器表现
- 统计数据分布的简要介绍
- 15 Python中的统计假设检验(备忘单)
- 统计假设检验的温和介绍
- 10如何在机器学习项目中使用统计方法的示例
- Python中统计功效和功耗分析的简要介绍
- 统计抽样和重新抽样的简要介绍
- 比较机器学习算法的统计显着性检验
- 机器学习中统计容差区间的温和介绍
- 机器学习统计书籍
- 评估机器学习模型的统计数据
- 机器学习统计(7天迷你课程)
- 用于机器学习的简明英语统计
- 如何使用统计显着性检验来解释机器学习结果
- 什么是统计(为什么它在机器学习中很重要)?
- Machine Learning Mastery 时间序列入门教程
- 如何在 Python 中为时间序列预测创建 ARIMA 模型
- 用 Python 进行时间序列预测的自回归模型
- 如何回溯机器学习模型的时间序列预测
- Python 中基于时间序列数据的基本特征工程
- R 的时间序列预测热门书籍
- 10 挑战机器学习时间序列预测问题
- 如何将时间序列转换为 Python 中的监督学习问题
- 如何将时间序列数据分解为趋势和季节性
- 如何用 ARCH 和 GARCH 模拟波动率进行时间序列预测
- 如何将时间序列数据集与 Python 区分开来
- Python 中时间序列预测的指数平滑的温和介绍
- 用 Python 进行时间序列预测的特征选择
- 浅谈自相关和部分自相关
- 时间序列预测的 Box-Jenkins 方法简介
- 用 Python 简要介绍时间序列的时间序列预测
- 如何使用 Python 网格搜索 ARIMA 模型超参数
- 如何在 Python 中加载和探索时间序列数据
- 如何使用 Python 对 ARIMA 模型进行手动预测
- 如何用 Python 进行时间序列预测的预测
- 如何使用 Python 中的 ARIMA 进行样本外预测
- 如何利用 Python 模拟残差错误来纠正时间序列预测
- 使用 Python 进行数据准备,特征工程和时间序列预测的移动平均平滑
- 多步时间序列预测的 4 种策略
- 如何在 Python 中规范化和标准化时间序列数据
- 如何利用 Python 进行时间序列预测的基线预测
- 如何使用 Python 对时间序列预测数据进行功率变换
- 用于时间序列预测的 Python 环境
- 如何重构时间序列预测问题
- 如何使用 Python 重新采样和插值您的时间序列数据
- 用 Python 编写 SARIMA 时间序列预测
- 如何在 Python 中保存 ARIMA 时间序列预测模型
- 使用 Python 进行季节性持久性预测
- 基于 ARIMA 的 Python 历史规模敏感性预测技巧分析
- 简单的时间序列预测模型进行测试,这样你就不会欺骗自己
- 标准多变量,多步骤和多站点时间序列预测问题
- 如何使用 Python 检查时间序列数据是否是固定的
- 使用 Python 进行时间序列数据可视化
- 7 个机器学习的时间序列数据集
- 时间序列预测案例研究与 Python:波士顿每月武装抢劫案
- Python 的时间序列预测案例研究:巴尔的摩的年度用水量
- 使用 Python 进行时间序列预测研究:法国香槟的月销售额
- 使用 Python 的置信区间理解时间序列预测不确定性
- 11 Python 中的经典时间序列预测方法(备忘单)
- 使用 Python 进行时间序列预测表现测量
- 使用 Python 7 天迷你课程进行时间序列预测
- 时间序列预测作为监督学习
- 什么是时间序列预测?
- 如何使用 Python 识别和删除时间序列数据的季节性
- 如何在 Python 中使用和删除时间序列数据中的趋势信息
- 如何在 Python 中调整 ARIMA 参数
- 如何用 Python 可视化时间序列残差预测错误
- 白噪声时间序列与 Python
- 如何通过时间序列预测项目
- Machine Learning Mastery XGBoost 教程
- 通过在 Python 中使用 XGBoost 提前停止来避免过度拟合
- 如何在 Python 中调优 XGBoost 的多线程支持
- 如何配置梯度提升算法
- 在 Python 中使用 XGBoost 进行梯度提升的数据准备
- 如何使用 scikit-learn 在 Python 中开发您的第一个 XGBoost 模型
- 如何在 Python 中使用 XGBoost 评估梯度提升模型
- 在 Python 中使用 XGBoost 的特征重要性和特征选择
- 浅谈机器学习的梯度提升算法
- 应用机器学习的 XGBoost 简介
- 如何在 macOS 上为 Python 安装 XGBoost
- 如何在 Python 中使用 XGBoost 保存梯度提升模型
- 从梯度提升开始,比较 165 个数据集上的 13 种算法
- 在 Python 中使用 XGBoost 和 scikit-learn 进行随机梯度提升
- 如何使用 Amazon Web Services 在云中训练 XGBoost 模型
- 在 Python 中使用 XGBoost 调整梯度提升的学习率
- 如何在 Python 中使用 XGBoost 调整决策树的数量和大小
- 如何在 Python 中使用 XGBoost 可视化梯度提升决策树
- 在 Python 中开始使用 XGBoost 的 7 步迷你课程