# 如何开发一个单词级神经语言模型并用它来生成文本
> 原文: [https://machinelearningmastery.com/how-to-develop-a-word-level-neural-language-model-in-keras/](https://machinelearningmastery.com/how-to-develop-a-word-level-neural-language-model-in-keras/)
语言模型可以基于序列中已经观察到的单词来预测序列中下一个单词的概率。
神经网络模型是开发统计语言模型的首选方法,因为它们可以使用分布式表示,其中具有相似含义的不同单词具有相似的表示,并且因为它们在进行预测时可以使用最近观察到的单词的大的上下文。
在本教程中,您将了解如何使用 Python 中的深度学习开发统计语言模型。
完成本教程后,您将了解:
* 如何准备文本以开发基于单词的语言模型。
* 如何设计和拟合具有学习嵌入和 LSTM 隐藏层的神经语言模型。
* 如何使用学习的语言模型生成具有与源文本类似的统计属性的新文本。
让我们开始吧。
* **Update Apr / 2018** :修正了模型描述中 100 个输入字与实际模型中 50 个输入字之间的不匹配。
![How to Develop a Word-Level Neural Language Model and Use it to Generate Text](img/d0ee6a8a9a2fc43e0ab26fc902881264.jpg)
如何开发一个单词级神经语言模型并用它来生成文本
照片由 [Carlo Raso](https://www.flickr.com/photos/70125105@N06/32512473990/) 拍摄,保留一些权利。
## 教程概述
本教程分为 4 个部分;他们是:
1. 柏拉图共和国
2. 数据准备
3. 训练语言模型
4. 使用语言模型
## 柏拉图共和国
[共和国](https://en.wikipedia.org/wiki/Republic_(Plato))是古典希腊哲学家柏拉图最着名的作品。
它被构建为关于城市国家内秩序和正义主题的对话(例如对话)
整个文本在公共领域免费提供。它可以在 [Project Gutenberg 网站](https://www.gutenberg.org/ebooks/1497)上以多种格式获得。
您可以在此处下载整本书(或书籍)的 ASCII 文本版本:
* [下载柏拉图共和国](http://www.gutenberg.org/cache/epub/1497/pg1497.txt)
下载书籍文本并将其直接放在当前工作中,文件名为“ _republic.txt_ ”
在文本编辑器中打开文件并删除前后问题。这包括开头的书籍详细信息,长篇分析以及最后的许可证信息。
案文应以:
> 书 I.
>
> 我昨天和阿里斯顿的儿子格劳孔一起去了比雷埃夫斯,
> ......
结束
> ......
> 在这一生和我们一直描述的千年朝圣中,我们都应该好好相处。
将清理后的版本保存为' _republic_clean。当前工作目录中的 _ txt'。该文件应该是大约 15,802 行文本。
现在我们可以从这个文本开发一个语言模型。
## 数据准备
我们将从准备建模数据开始。
第一步是查看数据。
### 查看文本
在编辑器中打开文本,然后查看文本数据。
例如,这是第一个对话框:
> 书 I.
>
> 我昨天和阿里斯顿的儿子 Glaucon 一起去了比雷埃夫斯,
> 我可以向女神祈祷(Bendis,Thracian
> Artemis。);而且因为我想看看他们以什么样的方式
> 庆祝这个节日,这是一个新事物。我很满意居民的
> 游行;但是色雷斯人的情况也是如此,
> 即使不是更多,也是美丽的。当我们完成祈祷并观看
> 景观时,我们转向了城市的方向;在那一瞬间
> Cephalus 的儿子 Polemarchus 偶然在我们回家的路上从
> 的距离看到了我们,并告诉他的仆人
> 跑去让我们等他。仆人背后披着斗篷
> 抓住我,并说:Polemarchus 希望你等。
>
> 我转过身,问他的主人在哪里。
>
> 他说,如果你只是等待,那么他就是那个年轻人。
>
> 当然,我们会,Glaucon 说。几分钟后,Polemarchus
> 出现了,并与他一起出现了 Glaucon 的兄弟 Adeimantus,Nicias 的儿子 Niceratus 以及其他几位参加过游行的人。
>
> Polemarchus 对我说:我认为,苏格拉底,你和你的
> 同伴已经在前往城市的路上。
>
> 我说,你没错。
>
> ...
您认为我们在准备数据时需要处理什么?
以下是我从快速浏览中看到的内容:
* 书/章标题(例如“BOOK I.”)。
* 英国英语拼写(例如“荣幸”)
* 标点符号很多(例如“ - ”,“; - ”,“? - ”等)
* 奇怪的名字(例如“Polemarchus”)。
* 一些漫长的独白,持续数百行。
* 一些引用的对话框(例如'...')
这些观察以及更多建议以我们可能希望准备文本数据的方式提出。
我们准备数据的具体方式实际上取决于我们打算如何对其进行建模,而这又取决于我们打算如何使用它。
### 语言模型设计
在本教程中,我们将开发一个文本模型,然后我们可以使用它来生成新的文本序列。
语言模型将是统计的,并且将预测给定输入文本序列的每个单词的概率。预测的单词将作为输入输入,进而生成下一个单词。
关键的设计决策是输入序列应该有多长。它们需要足够长以允许模型学习要预测的单词的上下文。此输入长度还将定义在使用模型时用于生成新序列的种子文本的长度。
没有正确的答案。有了足够的时间和资源,我们就可以探索模型用不同大小的输入序列学习的能力。
相反,我们将为输入序列的长度选择 50 个字的长度,有点任意。
我们可以处理数据,以便模型只处理自包含的句子并填充或截断文本以满足每个输入序列的这一要求。您可以将此作为本教程的扩展进行探索。
相反,为了使示例保持简洁,我们将让所有文本一起流动并训练模型以预测文本中句子,段落甚至书籍或章节中的下一个单词。
现在我们有一个模型设计,我们可以看看将原始文本转换为 50 个输入字到 1 个输出字的序列,准备好适合模型。
### 加载文字
第一步是将文本加载到内存中。
我们可以开发一个小函数来将整个文本文件加载到内存中并返回它。该函数名为 _load_doc()_,如下所示。给定文件名,它返回一个加载文本序列。
```py
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
```
使用此函数,我们可以在文件' _republic_clean.txt_ '中加载文档的清洁版本,如下所示:
```py
# load document
in_filename = 'republic_clean.txt'
doc = load_doc(in_filename)
print(doc[:200])
```
运行此代码段会加载文档并打印前 200 个字符作为完整性检查。
> 书 I.
>
> 我昨天和阿里斯顿的儿子 Glaucon 一起去了比雷埃夫斯,
> 我可以向女神祈祷(Bendis,Thracian
> Artemis。);还因为我想知道什么
到现在为止还挺好。接下来,让我们清理文本。
### 干净的文字
我们需要将原始文本转换为一系列令牌或单词,我们可以将其用作训练模型的源。
基于查看原始文本(上文),下面是我们将执行的一些特定操作来清理文本。您可能希望自己探索更多清洁操作作为扩展。
* 将' - '替换为空格,以便我们可以更好地分割单词。
* 基于空白区域的分词。
* 从单词中删除所有标点符号以减少词汇量大小(例如'What?'变为'What')。
* 删除所有非字母的单词以删除独立的标点符号。
* 将所有单词标准化为小写以减少词汇量。
词汇量大小与语言建模有很大关系。较小的词汇量会导致较小的模型更快地训练。
我们可以在一个函数中按此顺序实现每个清理操作。下面是函数 _clean_doc()_,它将加载的文档作为参数并返回一个干净的标记数组。
```py
import string
# turn a doc into clean tokens
def clean_doc(doc):
# replace '--' with a space ' '
doc = doc.replace('--', ' ')
# split into tokens by white space
tokens = doc.split()
# remove punctuation from each token
table = str.maketrans('', '', string.punctuation)
tokens = [w.translate(table) for w in tokens]
# remove remaining tokens that are not alphabetic
tokens = [word for word in tokens if word.isalpha()]
# make lower case
tokens = [word.lower() for word in tokens]
return tokens
```
我们可以在加载的文档上运行此清理操作,并打印出一些标记和统计信息作为完整性检查。
```py
# clean document
tokens = clean_doc(doc)
print(tokens[:200])
print('Total Tokens: %d' % len(tokens))
print('Unique Tokens: %d' % len(set(tokens)))
```
首先,我们可以看到一个很好的令牌列表,它看起来比原始文本更清晰。我们可以删除' _Book I_ '章节标记等等,但这是一个好的开始。
```py
['book', 'i', 'i', 'went', 'down', 'yesterday', 'to', 'the', 'piraeus', 'with', 'glaucon', 'the', 'son', 'of', 'ariston', 'that', 'i', 'might', 'offer', 'up', 'my', 'prayers', 'to', 'the', 'goddess', 'bendis', 'the', 'thracian', 'artemis', 'and', 'also', 'because', 'i', 'wanted', 'to', 'see', 'in', 'what', 'manner', 'they', 'would', 'celebrate', 'the', 'festival', 'which', 'was', 'a', 'new', 'thing', 'i', 'was', 'delighted', 'with', 'the', 'procession', 'of', 'the', 'inhabitants', 'but', 'that', 'of', 'the', 'thracians', 'was', 'equally', 'if', 'not', 'more', 'beautiful', 'when', 'we', 'had', 'finished', 'our', 'prayers', 'and', 'viewed', 'the', 'spectacle', 'we', 'turned', 'in', 'the', 'direction', 'of', 'the', 'city', 'and', 'at', 'that', 'instant', 'polemarchus', 'the', 'son', 'of', 'cephalus', 'chanced', 'to', 'catch', 'sight', 'of', 'us', 'from', 'a', 'distance', 'as', 'we', 'were', 'starting', 'on', 'our', 'way', 'home', 'and', 'told', 'his', 'servant', 'to', 'run', 'and', 'bid', 'us', 'wait', 'for', 'him', 'the', 'servant', 'took', 'hold', 'of', 'me', 'by', 'the', 'cloak', 'behind', 'and', 'said', 'polemarchus', 'desires', 'you', 'to', 'wait', 'i', 'turned', 'round', 'and', 'asked', 'him', 'where', 'his', 'master', 'was', 'there', 'he', 'is', 'said', 'the', 'youth', 'coming', 'after', 'you', 'if', 'you', 'will', 'only', 'wait', 'certainly', 'we', 'will', 'said', 'glaucon', 'and', 'in', 'a', 'few', 'minutes', 'polemarchus', 'appeared', 'and', 'with', 'him', 'adeimantus', 'glaucons', 'brother', 'niceratus', 'the', 'son', 'of', 'nicias', 'and', 'several', 'others', 'who', 'had', 'been', 'at', 'the', 'procession', 'polemarchus', 'said']
```
我们还获得了有关干净文档的一些统计信息。
我们可以看到,干净的文字中只有不到 120,000 个单词,而且词汇量不到 7,500 个单词。这个很小,适合这些数据的模型应该可以在适度的硬件上进行管理。
```py
Total Tokens: 118684
Unique Tokens: 7409
```
接下来,我们可以看看将标记整形为序列并将它们保存到文件中。
### 保存干净的文字
我们可以将长令牌列表组织成 50 个输入字和 1 个输出字的序列。
也就是说,51 个单词的序列。
我们可以通过从令牌 51 开始迭代令牌列表并将先前的 50 个令牌作为序列进行迭代,然后将该过程重复到令牌列表的末尾。
我们将令牌转换为以空格分隔的字符串,以便以后存储在文件中。
下面列出了将清洁令牌列表拆分为长度为 51 令牌的序列的代码。
```py
# organize into sequences of tokens
length = 50 + 1
sequences = list()
for i in range(length, len(tokens)):
# select sequence of tokens
seq = tokens[i-length:i]
# convert into a line
line = ' '.join(seq)
# store
sequences.append(line)
print('Total Sequences: %d' % len(sequences))
```
运行此片段会创建一长串的行。
在列表上打印统计数据,我们可以看到我们将有 118,633 种训练模式来适应我们的模型。
```py
Total Sequences: 118633
```
接下来,我们可以将序列保存到新文件中以便以后加载。
我们可以定义一个新函数来保存文本行到文件。这个新函数叫做 _save_doc()_,如下所示。它将行和文件名列表作为输入。这些行以 ASCII 格式写入,每行一行。
```py
# save tokens to file, one dialog per line
def save_doc(lines, filename):
data = '\n'.join(lines)
file = open(filename, 'w')
file.write(data)
file.close()
```
我们可以调用此函数并将训练序列保存到文件' _republic_sequences.txt_ '。
```py
# save sequences to file
out_filename = 'republic_sequences.txt'
save_doc(sequences, out_filename)
```
使用文本编辑器查看文件。
你会看到每一行都沿着一个单词移动,最后一个新单词被预测;例如,以下是截断形式的前 3 行:
> 我知道了......看到了
> 我去了......看到我们
> 我从
> 下来......
### 完整的例子
将所有这些结合在一起,下面提供了完整的代码清单。
```py
import string
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# turn a doc into clean tokens
def clean_doc(doc):
# replace '--' with a space ' '
doc = doc.replace('--', ' ')
# split into tokens by white space
tokens = doc.split()
# remove punctuation from each token
table = str.maketrans('', '', string.punctuation)
tokens = [w.translate(table) for w in tokens]
# remove remaining tokens that are not alphabetic
tokens = [word for word in tokens if word.isalpha()]
# make lower case
tokens = [word.lower() for word in tokens]
return tokens
# save tokens to file, one dialog per line
def save_doc(lines, filename):
data = '\n'.join(lines)
file = open(filename, 'w')
file.write(data)
file.close()
# load document
in_filename = 'republic_clean.txt'
doc = load_doc(in_filename)
print(doc[:200])
# clean document
tokens = clean_doc(doc)
print(tokens[:200])
print('Total Tokens: %d' % len(tokens))
print('Unique Tokens: %d' % len(set(tokens)))
# organize into sequences of tokens
length = 50 + 1
sequences = list()
for i in range(length, len(tokens)):
# select sequence of tokens
seq = tokens[i-length:i]
# convert into a line
line = ' '.join(seq)
# store
sequences.append(line)
print('Total Sequences: %d' % len(sequences))
# save sequences to file
out_filename = 'republic_sequences.txt'
save_doc(sequences, out_filename)
```
您现在应该将训练数据存储在当前工作目录中的文件' _republic_sequences.txt_ '中。
接下来,让我们看看如何使语言模型适合这些数据。
## 训练语言模型
我们现在可以从准备好的数据中训练统计语言模型。
我们将训练的模型是神经语言模型。它有一些独特的特点:
* 它使用单词的分布式表示,以便具有相似含义的不同单词具有相似的表示。
* 它在学习模型的同时学习表示。
* 它学会使用最后 100 个单词的上下文预测下一个单词的概率。
具体来说,我们将使用嵌入层来学习单词的表示,并使用长期短期记忆(LSTM)循环神经网络来学习根据其上下文预测单词。
让我们从加载我们的训练数据开始。
### 加载序列
我们可以使用我们在上一节中开发的 _load_doc()_ 函数加载我们的训练数据。
加载后,我们可以通过基于新行的拆分将数据拆分为单独的训练序列。
下面的代码段将从当前工作目录加载' _republic_sequences.txt_ '数据文件。
```py
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load
in_filename = 'republic_sequences.txt'
doc = load_doc(in_filename)
lines = doc.split('\n')
```
接下来,我们可以编码训练数据。
### 编码序列
单词嵌入层要求输入序列由整数组成。
我们可以将词汇表中的每个单词映射到一个唯一的整数,并对输入序列进行编码。之后,当我们进行预测时,我们可以将预测转换为数字并在同一映射中查找其关联的单词。
要进行此编码,我们将使用 Keras API 中的 [Tokenizer 类](https://keras.io/preprocessing/text/#tokenizer)。
首先,必须在整个训练数据集上训练 Tokenizer,这意味着它会找到数据中的所有唯一单词并为每个单词分配一个唯一的整数。
然后我们可以使用 fit Tokenizer 对所有训练序列进行编码,将每个序列从单词列表转换为整数列表。
```py
# integer encode sequences of words
tokenizer = Tokenizer()
tokenizer.fit_on_texts(lines)
sequences = tokenizer.texts_to_sequences(lines)
```
我们可以访问单词到整数的映射,作为 Tokenizer 对象上名为 word_index 的字典属性。
我们需要知道稍后定义嵌入层的词汇表的大小。我们可以通过计算映射字典的大小来确定词汇表。
为单词分配从 1 到单词总数的值(例如 7,409)。嵌入层需要为此词汇表中的每个单词分配一个向量表示,从索引 1 到最大索引,并且因为数组的索引是零偏移,所以词汇结尾的单词索引将是 7,409;这意味着数组的长度必须为 7,409 + 1。
因此,在为嵌入层指定词汇表大小时,我们将其指定为比实际词汇大 1。
```py
# vocabulary size
vocab_size = len(tokenizer.word_index) + 1
```
### 序列输入和输出
现在我们已经编码了输入序列,我们需要将它们分成输入( _X_ )和输出( _y_ )元素。
我们可以通过数组切片来做到这一点。
分离后,我们需要对输出字进行热编码。这意味着将它从整数转换为 0 值的向量,一个用于词汇表中的每个单词,用 1 表示单词整数值索引处的特定单词。
这样,模型学习预测下一个单词的概率分布,并且除了接下来的实际单词之外,所有单词的学习基础真实为 0。
Keras 提供 _to_categorical()_,可用于对每个输入 - 输出序列对的输出字进行热编码。
最后,我们需要为嵌入层指定输入序列的长度。我们知道有 50 个单词,因为我们设计了模型,但指定的一个很好的通用方法是使用输入数据形状的第二个维度(列数)。这样,如果在准备数据时更改序列的长度,则无需更改此数据加载代码;它是通用的。
```py
# separate into input and output
sequences = array(sequences)
X, y = sequences[:,:-1], sequences[:,-1]
y = to_categorical(y, num_classes=vocab_size)
seq_length = X.shape[1]
```
### 适合模型
我们现在可以在训练数据上定义和拟合我们的语言模型。
如前所述,学习嵌入需要知道词汇表的大小和输入序列的长度。它还有一个参数来指定用于表示每个单词的维度。也就是说,嵌入向量空间的大小。
常用值为 50,100 和 300.我们在这里使用 50,但考虑测试更小或更大的值。
我们将使用两个 LSTM 隐藏层,每层有 100 个存储单元。更多的存储单元和更深的网络可以获得更好的结果。
具有 100 个神经元的密集完全连接层连接到 LSTM 隐藏层以解释从序列提取的特征。输出层将下一个单词预测为单个向量,即词汇表的大小,其中词汇表中的每个单词具有概率。 softmax 激活函数用于确保输出具有归一化概率的特征。
```py
# define model
model = Sequential()
model.add(Embedding(vocab_size, 50, input_length=seq_length))
model.add(LSTM(100, return_sequences=True))
model.add(LSTM(100))
model.add(Dense(100, activation='relu'))
model.add(Dense(vocab_size, activation='softmax'))
print(model.summary())
```
定义网络的摘要打印为完整性检查,以确保我们构建了我们的预期。
```py
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding_1 (Embedding) (None, 50, 50) 370500
_________________________________________________________________
lstm_1 (LSTM) (None, 50, 100) 60400
_________________________________________________________________
lstm_2 (LSTM) (None, 100) 80400
_________________________________________________________________
dense_1 (Dense) (None, 100) 10100
_________________________________________________________________
dense_2 (Dense) (None, 7410) 748410
=================================================================
Total params: 1,269,810
Trainable params: 1,269,810
Non-trainable params: 0
_________________________________________________________________
```
接下来,编译模型,指定拟合模型所需的分类交叉熵损失。从技术上讲,该模型正在学习多类分类,这是此类问题的合适损失函数。使用有效的 Adam 实现到小批量梯度下降并且评估模型的准确性。
最后,该模型适用于 100 个训练时期的数据,适当的批量大小为 128,以加快速度。
没有 GPU 的现代硬件上的训练可能需要几个小时。您可以使用更大的批量大小和/或更少的训练时期加快速度。
```py
# compile model
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
# fit model
model.fit(X, y, batch_size=128, epochs=100)
```
在训练期间,您将看到表现摘要,包括在每次批次更新结束时从训练数据评估的损失和准确性。
你会得到不同的结果,但是预测序列中下一个单词的准确度可能只有 50%以上,这也不错。我们的目标不是 100%准确(例如记忆文本的模型),而是一种捕捉文本本质的模型。
```py
...
Epoch 96/100
118633/118633 [==============================] - 265s - loss: 2.0324 - acc: 0.5187
Epoch 97/100
118633/118633 [==============================] - 265s - loss: 2.0136 - acc: 0.5247
Epoch 98/100
118633/118633 [==============================] - 267s - loss: 1.9956 - acc: 0.5262
Epoch 99/100
118633/118633 [==============================] - 266s - loss: 1.9812 - acc: 0.5291
Epoch 100/100
118633/118633 [==============================] - 270s - loss: 1.9709 - acc: 0.5315
```
### 保存模型
在运行结束时,训练的模型将保存到文件中。
在这里,我们使用 Keras 模型 API 将模型保存到当前工作目录中的文件' _model.h5_ '。
之后,当我们加载模型进行预测时,我们还需要将单词映射到整数。这是在 Tokenizer 对象中,我们也可以使用 Pickle 保存它。
```py
# save the model to file
model.save('model.h5')
# save the tokenizer
dump(tokenizer, open('tokenizer.pkl', 'wb'))
```
### 完整的例子
我们可以把所有这些放在一起;下面列出了拟合语言模型的完整示例。
```py
from numpy import array
from pickle import dump
from keras.preprocessing.text import Tokenizer
from keras.utils import to_categorical
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.layers import Embedding
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load
in_filename = 'republic_sequences.txt'
doc = load_doc(in_filename)
lines = doc.split('\n')
# integer encode sequences of words
tokenizer = Tokenizer()
tokenizer.fit_on_texts(lines)
sequences = tokenizer.texts_to_sequences(lines)
# vocabulary size
vocab_size = len(tokenizer.word_index) + 1
# separate into input and output
sequences = array(sequences)
X, y = sequences[:,:-1], sequences[:,-1]
y = to_categorical(y, num_classes=vocab_size)
seq_length = X.shape[1]
# define model
model = Sequential()
model.add(Embedding(vocab_size, 50, input_length=seq_length))
model.add(LSTM(100, return_sequences=True))
model.add(LSTM(100))
model.add(Dense(100, activation='relu'))
model.add(Dense(vocab_size, activation='softmax'))
print(model.summary())
# compile model
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
# fit model
model.fit(X, y, batch_size=128, epochs=100)
# save the model to file
model.save('model.h5')
# save the tokenizer
dump(tokenizer, open('tokenizer.pkl', 'wb'))
```
## 使用语言模型
既然我们有一个训练有素的语言模型,我们就可以使用它。
在这种情况下,我们可以使用它来生成与源文本具有相同统计属性的新文本序列。
这是不切实际的,至少不是这个例子,但它给出了语言模型学到的具体例子。
我们将再次加载训练序列。
### 加载数据
我们可以使用上一节中的相同代码来加载文本的训练数据序列。
具体来说, _load_doc()_ 功能。
```py
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# load cleaned text sequences
in_filename = 'republic_sequences.txt'
doc = load_doc(in_filename)
lines = doc.split('\n')
```
我们需要文本,以便我们可以选择源序列作为模型的输入,以生成新的文本序列。
该模型将需要 100 个单词作为输入。
稍后,我们需要指定预期的输入长度。我们可以通过计算加载数据的一行的长度从输入序列中确定这一点,并且对于同一行上的预期输出字减去 1。
```py
seq_length = len(lines[0].split()) - 1
```
### 加载模型
我们现在可以从文件加载模型。
Keras 提供 _load_model()_ 功能,用于加载模型,随时可以使用。
```py
# load the model
model = load_model('model.h5')
```
我们还可以使用 Pickle API 从文件加载 tokenizer。
```py
# load the tokenizer
tokenizer = load(open('tokenizer.pkl', 'rb'))
```
我们准备使用加载的模型。
### 生成文本
生成文本的第一步是准备种子输入。
为此,我们将从输入文本中选择一行随机文本。一旦选定,我们将打印它,以便我们对使用的内容有所了解。
```py
# select a seed text
seed_text = lines[randint(0,len(lines))]
print(seed_text + '\n')
```
接下来,我们可以一次创建一个新单词。
首先,必须使用我们在训练模型时使用的相同标记器将种子文本编码为整数。
```py
encoded = tokenizer.texts_to_sequences([seed_text])[0]
```
该模型可以通过调用 _model.predict_classes()_ 直接预测下一个单词,该模型将返回具有最高概率的单词的索引。
```py
# predict probabilities for each word
yhat = model.predict_classes(encoded, verbose=0)
```
然后,我们可以在 Tokenizers 映射中查找索引以获取关联的单词。
```py
out_word = ''
for word, index in tokenizer.word_index.items():
if index == yhat:
out_word = word
break
```
然后,我们可以将此单词附加到种子文本并重复该过程。
重要的是,输入序列将变得太长。在输入序列编码为整数后,我们可以将其截断为所需的长度。 Keras 提供了 _pad_sequences()_ 函数,我们可以使用它来执行此截断。
```py
encoded = pad_sequences([encoded], maxlen=seq_length, truncating='pre')
```
我们可以将所有这些包装成一个名为 _generate_seq()_ 的函数,该函数将模型,标记生成器,输入序列长度,种子文本和要生成的单词数作为输入。然后它返回由模型生成的一系列单词。
```py
# generate a sequence from a language model
def generate_seq(model, tokenizer, seq_length, seed_text, n_words):
result = list()
in_text = seed_text
# generate a fixed number of words
for _ in range(n_words):
# encode the text as integer
encoded = tokenizer.texts_to_sequences([in_text])[0]
# truncate sequences to a fixed length
encoded = pad_sequences([encoded], maxlen=seq_length, truncating='pre')
# predict probabilities for each word
yhat = model.predict_classes(encoded, verbose=0)
# map predicted word index to word
out_word = ''
for word, index in tokenizer.word_index.items():
if index == yhat:
out_word = word
break
# append to input
in_text += ' ' + out_word
result.append(out_word)
return ' '.join(result)
```
我们现在准备在给出一些种子文本的情况下生成一系列新单词。
```py
# generate new text
generated = generate_seq(model, tokenizer, seq_length, seed_text, 50)
print(generated)
```
综上所述,下面列出了从学习语言模型生成文本的完整代码清单。
```py
from random import randint
from pickle import load
from keras.models import load_model
from keras.preprocessing.sequence import pad_sequences
# load doc into memory
def load_doc(filename):
# open the file as read only
file = open(filename, 'r')
# read all text
text = file.read()
# close the file
file.close()
return text
# generate a sequence from a language model
def generate_seq(model, tokenizer, seq_length, seed_text, n_words):
result = list()
in_text = seed_text
# generate a fixed number of words
for _ in range(n_words):
# encode the text as integer
encoded = tokenizer.texts_to_sequences([in_text])[0]
# truncate sequences to a fixed length
encoded = pad_sequences([encoded], maxlen=seq_length, truncating='pre')
# predict probabilities for each word
yhat = model.predict_classes(encoded, verbose=0)
# map predicted word index to word
out_word = ''
for word, index in tokenizer.word_index.items():
if index == yhat:
out_word = word
break
# append to input
in_text += ' ' + out_word
result.append(out_word)
return ' '.join(result)
# load cleaned text sequences
in_filename = 'republic_sequences.txt'
doc = load_doc(in_filename)
lines = doc.split('\n')
seq_length = len(lines[0].split()) - 1
# load the model
model = load_model('model.h5')
# load the tokenizer
tokenizer = load(open('tokenizer.pkl', 'rb'))
# select a seed text
seed_text = lines[randint(0,len(lines))]
print(seed_text + '\n')
# generate new text
generated = generate_seq(model, tokenizer, seq_length, seed_text, 50)
print(generated)
```
首先运行示例打印种子文本。
> 当他说一个人长大后可以学到很多东西,因为他不能学到更多东西,因为他可以跑得很多青春是时候任何特殊的辛劳,因此计算和几何以及所有其他教学要素都是一个
然后打印 50 个生成的文本。
> 辩证法的准备应该以怠惰挥霍者的名义呈现,其他人是多方面的,不公正的,是最好的,另一个是高兴的灵魂灵魂的开放,绣花者必须在
你会得到不同的结果。尝试运行几代产品。
你可以看到文字看似合理。实际上,添加连接将有助于解释种子和生成的文本。然而,生成的文本以正确的顺序获得正确的单词。
尝试运行几次示例以查看生成文本的其他示例。如果你看到有趣的话,请在下面的评论中告诉我。
## 扩展
本节列出了一些扩展您可能希望探索的教程的想法。
* **Sentence-Wise Model** 。基于句子分割原始数据并将每个句子填充到固定长度(例如,最长的句子长度)。
* **简化词汇**。探索一个更简单的词汇,可能会删除词干或停止词。
* **调谐模型**。调整模型,例如隐藏层中嵌入的大小或存储单元的数量,以查看是否可以开发更好的模型。
* **更深的型号**。扩展模型以具有多个 LSTM 隐藏层,可能具有丢失以查看是否可以开发更好的模型。
* **预训练单词嵌入**。扩展模型以使用预先训练的 word2vec 或 GloVe 向量来查看它是否会产生更好的模型。
## 进一步阅读
如果您要深入了解,本节将提供有关该主题的更多资源。
* [Gutenberg 项目](https://www.gutenberg.org/)
* [柏拉图共和国古腾堡项目](https://www.gutenberg.org/ebooks/1497)
* 维基百科上的[共和国(柏拉图)](https://en.wikipedia.org/wiki/Republic_(Plato))
* 维基百科上的[语言模型](https://en.wikipedia.org/wiki/Language_model)
## 摘要
在本教程中,您了解了如何使用单词嵌入和循环神经网络开发基于单词的语言模型。
具体来说,你学到了:
* 如何准备文本以开发基于单词的语言模型。
* 如何设计和拟合具有学习嵌入和 LSTM 隐藏层的神经语言模型。
* 如何使用学习的语言模型生成具有与源文本类似的统计属性的新文本。
你有任何问题吗?
在下面的评论中提出您的问题,我会尽力回答。
- Machine Learning Mastery 应用机器学习教程
- 5竞争机器学习的好处
- 过度拟合的简单直觉,或者为什么测试训练数据是一个坏主意
- 特征选择简介
- 应用机器学习作为一个搜索问题的温和介绍
- 为什么应用机器学习很难
- 为什么我的结果不如我想的那么好?你可能过度拟合了
- 用ROC曲线评估和比较分类器表现
- BigML评论:发现本机学习即服务平台的聪明功能
- BigML教程:开发您的第一个决策树并进行预测
- 构建生产机器学习基础设施
- 分类准确性不够:可以使用更多表现测量
- 一种预测模型的巧妙应用
- 机器学习项目中常见的陷阱
- 数据清理:将凌乱的数据转换为整洁的数据
- 机器学习中的数据泄漏
- 数据,学习和建模
- 数据管理至关重要以及为什么需要认真对待它
- 将预测模型部署到生产中
- 参数和超参数之间有什么区别?
- 测试和验证数据集之间有什么区别?
- 发现特征工程,如何设计特征以及如何获得它
- 如何开始使用Kaggle
- 超越预测
- 如何在评估机器学习算法时选择正确的测试选项
- 如何定义机器学习问题
- 如何评估机器学习算法
- 如何获得基线结果及其重要性
- 如何充分利用机器学习数据
- 如何识别数据中的异常值
- 如何提高机器学习效果
- 如何在竞争机器学习中踢屁股
- 如何知道您的机器学习模型是否具有良好的表现
- 如何布局和管理您的机器学习项目
- 如何为机器学习准备数据
- 如何减少最终机器学习模型中的方差
- 如何使用机器学习结果
- 如何解决像数据科学家这样的问题
- 通过数据预处理提高模型精度
- 处理机器学习的大数据文件的7种方法
- 建立机器学习系统的经验教训
- 如何使用机器学习清单可靠地获得准确的预测(即使您是初学者)
- 机器学习模型运行期间要做什么
- 机器学习表现改进备忘单
- 来自世界级从业者的机器学习技巧:Phil Brierley
- 模型预测精度与机器学习中的解释
- 竞争机器学习的模型选择技巧
- 机器学习需要多少训练数据?
- 如何系统地规划和运行机器学习实验
- 应用机器学习过程
- 默认情况下可重现的机器学习结果
- 10个实践应用机器学习的标准数据集
- 简单的三步法到最佳机器学习算法
- 打击机器学习数据集中不平衡类的8种策略
- 模型表现不匹配问题(以及如何处理)
- 黑箱机器学习的诱惑陷阱
- 如何培养最终的机器学习模型
- 使用探索性数据分析了解您的问题并获得更好的结果
- 什么是数据挖掘和KDD
- 为什么One-Hot在机器学习中编码数据?
- 为什么你应该在你的机器学习问题上进行抽样检查算法
- 所以,你正在研究机器学习问题......
- Machine Learning Mastery Keras 深度学习教程
- Keras 中神经网络模型的 5 步生命周期
- 在 Python 迷你课程中应用深度学习
- Keras 深度学习库的二元分类教程
- 如何用 Keras 构建多层感知器神经网络模型
- 如何在 Keras 中检查深度学习模型
- 10 个用于 Amazon Web Services 深度学习的命令行秘籍
- 机器学习卷积神经网络的速成课程
- 如何在 Python 中使用 Keras 进行深度学习的度量
- 深度学习书籍
- 深度学习课程
- 你所知道的深度学习是一种谎言
- 如何设置 Amazon AWS EC2 GPU 以训练 Keras 深度学习模型(分步)
- 神经网络中批量和迭代之间的区别是什么?
- 在 Keras 展示深度学习模型训练历史
- 基于 Keras 的深度学习模型中的dropout正则化
- 评估 Keras 中深度学习模型的表现
- 如何评价深度学习模型的技巧
- 小批量梯度下降的简要介绍以及如何配置批量大小
- 在 Keras 中获得深度学习帮助的 9 种方法
- 如何使用 Keras 在 Python 中网格搜索深度学习模型的超参数
- 用 Keras 在 Python 中使用卷积神经网络进行手写数字识别
- 如何用 Keras 进行预测
- 用 Keras 进行深度学习的图像增强
- 8 个深度学习的鼓舞人心的应用
- Python 深度学习库 Keras 简介
- Python 深度学习库 TensorFlow 简介
- Python 深度学习库 Theano 简介
- 如何使用 Keras 函数式 API 进行深度学习
- Keras 深度学习库的多类分类教程
- 多层感知器神经网络速成课程
- 基于卷积神经网络的 Keras 深度学习库中的目标识别
- 流行的深度学习库
- 用深度学习预测电影评论的情感
- Python 中的 Keras 深度学习库的回归教程
- 如何使用 Keras 获得可重现的结果
- 如何在 Linux 服务器上运行深度学习实验
- 保存并加载您的 Keras 深度学习模型
- 用 Keras 逐步开发 Python 中的第一个神经网络
- 用 Keras 理解 Python 中的有状态 LSTM 循环神经网络
- 在 Python 中使用 Keras 深度学习模型和 Scikit-Learn
- 如何使用预训练的 VGG 模型对照片中的物体进行分类
- 在 Python 和 Keras 中对深度学习模型使用学习率调度
- 如何在 Keras 中可视化深度学习神经网络模型
- 什么是深度学习?
- 何时使用 MLP,CNN 和 RNN 神经网络
- 为什么用随机权重初始化神经网络?
- Machine Learning Mastery 深度学习 NLP 教程
- 深度学习在自然语言处理中的 7 个应用
- 如何实现自然语言处理的波束搜索解码器
- 深度学习文档分类的最佳实践
- 关于自然语言处理的热门书籍
- 在 Python 中计算文本 BLEU 分数的温和介绍
- 使用编码器 - 解码器模型的用于字幕生成的注入和合并架构
- 如何用 Python 清理机器学习的文本
- 如何配置神经机器翻译的编码器 - 解码器模型
- 如何开始深度学习自然语言处理(7 天迷你课程)
- 自然语言处理的数据集
- 如何开发一种深度学习的词袋模型来预测电影评论情感
- 深度学习字幕生成模型的温和介绍
- 如何在 Keras 中定义神经机器翻译的编码器 - 解码器序列 - 序列模型
- 如何利用小实验在 Keras 中开发字幕生成模型
- 如何从头开发深度学习图片标题生成器
- 如何在 Keras 中开发基于字符的神经语言模型
- 如何开发用于情感分析的 N-gram 多通道卷积神经网络
- 如何从零开始开发神经机器翻译系统
- 如何在 Python 中用 Keras 开发基于单词的神经语言模型
- 如何开发一种预测电影评论情感的词嵌入模型
- 如何使用 Gensim 在 Python 中开发词嵌入
- 用于文本摘要的编码器 - 解码器深度学习模型
- Keras 中文本摘要的编码器 - 解码器模型
- 用于神经机器翻译的编码器 - 解码器循环神经网络模型
- 浅谈词袋模型
- 文本摘要的温和介绍
- 编码器 - 解码器循环神经网络中的注意力如何工作
- 如何利用深度学习自动生成照片的文本描述
- 如何开发一个单词级神经语言模型并用它来生成文本
- 浅谈神经机器翻译
- 什么是自然语言处理?
- 牛津自然语言处理深度学习课程
- 如何为机器翻译准备法语到英语的数据集
- 如何为情感分析准备电影评论数据
- 如何为文本摘要准备新闻文章
- 如何准备照片标题数据集以训练深度学习模型
- 如何使用 Keras 为深度学习准备文本数据
- 如何使用 scikit-learn 为机器学习准备文本数据
- 自然语言处理神经网络模型入门
- 对自然语言处理的深度学习的承诺
- 在 Python 中用 Keras 进行 LSTM 循环神经网络的序列分类
- 斯坦福自然语言处理深度学习课程评价
- 统计语言建模和神经语言模型的简要介绍
- 使用 Keras 在 Python 中进行 LSTM 循环神经网络的文本生成
- 浅谈机器学习中的转换
- 如何使用 Keras 将词嵌入层用于深度学习
- 什么是用于文本的词嵌入
- Machine Learning Mastery 深度学习时间序列教程
- 如何开发人类活动识别的一维卷积神经网络模型
- 人类活动识别的深度学习模型
- 如何评估人类活动识别的机器学习算法
- 时间序列预测的多层感知器网络探索性配置
- 比较经典和机器学习方法进行时间序列预测的结果
- 如何通过深度学习快速获得时间序列预测的结果
- 如何利用 Python 处理序列预测问题中的缺失时间步长
- 如何建立预测大气污染日的概率预测模型
- 如何开发一种熟练的机器学习时间序列预测模型
- 如何构建家庭用电自回归预测模型
- 如何开发多步空气污染时间序列预测的自回归预测模型
- 如何制定多站点多元空气污染时间序列预测的基线预测
- 如何开发时间序列预测的卷积神经网络模型
- 如何开发卷积神经网络用于多步时间序列预测
- 如何开发单变量时间序列预测的深度学习模型
- 如何开发 LSTM 模型用于家庭用电的多步时间序列预测
- 如何开发 LSTM 模型进行时间序列预测
- 如何开发多元多步空气污染时间序列预测的机器学习模型
- 如何开发多层感知器模型进行时间序列预测
- 如何开发人类活动识别时间序列分类的 RNN 模型
- 如何开始深度学习的时间序列预测(7 天迷你课程)
- 如何网格搜索深度学习模型进行时间序列预测
- 如何对单变量时间序列预测的网格搜索朴素方法
- 如何在 Python 中搜索 SARIMA 模型超参数用于时间序列预测
- 如何在 Python 中进行时间序列预测的网格搜索三次指数平滑
- 一个标准的人类活动识别问题的温和介绍
- 如何加载和探索家庭用电数据
- 如何加载,可视化和探索复杂的多变量多步时间序列预测数据集
- 如何从智能手机数据模拟人类活动
- 如何根据环境因素预测房间占用率
- 如何使用脑波预测人眼是开放还是闭合
- 如何在 Python 中扩展长短期内存网络的数据
- 如何使用 TimeseriesGenerator 进行 Keras 中的时间序列预测
- 基于机器学习算法的室内运动时间序列分类
- 用于时间序列预测的状态 LSTM 在线学习的不稳定性
- 用于罕见事件时间序列预测的 LSTM 模型体系结构
- 用于时间序列预测的 4 种通用机器学习数据变换
- Python 中长短期记忆网络的多步时间序列预测
- 家庭用电机器学习的多步时间序列预测
- Keras 中 LSTM 的多变量时间序列预测
- 如何开发和评估朴素的家庭用电量预测方法
- 如何为长短期记忆网络准备单变量时间序列数据
- 循环神经网络在时间序列预测中的应用
- 如何在 Python 中使用差异变换删除趋势和季节性
- 如何在 LSTM 中种子状态用于 Python 中的时间序列预测
- 使用 Python 进行时间序列预测的有状态和无状态 LSTM
- 长短时记忆网络在时间序列预测中的适用性
- 时间序列预测问题的分类
- Python 中长短期记忆网络的时间序列预测
- 基于 Keras 的 Python 中 LSTM 循环神经网络的时间序列预测
- Keras 中深度学习的时间序列预测
- 如何用 Keras 调整 LSTM 超参数进行时间序列预测
- 如何在时间序列预测训练期间更新 LSTM 网络
- 如何使用 LSTM 网络的 Dropout 进行时间序列预测
- 如何使用 LSTM 网络中的特征进行时间序列预测
- 如何在 LSTM 网络中使用时间序列进行时间序列预测
- 如何利用 LSTM 网络进行权重正则化进行时间序列预测
- Machine Learning Mastery 线性代数教程
- 机器学习数学符号的基础知识
- 用 NumPy 阵列轻松介绍广播
- 如何从 Python 中的 Scratch 计算主成分分析(PCA)
- 用于编码器审查的计算线性代数
- 10 机器学习中的线性代数示例
- 线性代数的温和介绍
- 用 NumPy 轻松介绍 Python 中的 N 维数组
- 机器学习向量的温和介绍
- 如何在 Python 中为机器学习索引,切片和重塑 NumPy 数组
- 机器学习的矩阵和矩阵算法简介
- 温和地介绍机器学习的特征分解,特征值和特征向量
- NumPy 对预期价值,方差和协方差的简要介绍
- 机器学习矩阵分解的温和介绍
- 用 NumPy 轻松介绍机器学习的张量
- 用于机器学习的线性代数中的矩阵类型简介
- 用于机器学习的线性代数备忘单
- 线性代数的深度学习
- 用于机器学习的线性代数(7 天迷你课程)
- 机器学习的线性代数
- 机器学习矩阵运算的温和介绍
- 线性代数评论没有废话指南
- 学习机器学习线性代数的主要资源
- 浅谈机器学习的奇异值分解
- 如何用线性代数求解线性回归
- 用于机器学习的稀疏矩阵的温和介绍
- 机器学习中向量规范的温和介绍
- 学习线性代数用于机器学习的 5 个理由
- Machine Learning Mastery LSTM 教程
- Keras中长短期记忆模型的5步生命周期
- 长短时记忆循环神经网络的注意事项
- CNN长短期记忆网络
- 逆向神经网络中的深度学习速成课程
- 可变长度输入序列的数据准备
- 如何用Keras开发用于Python序列分类的双向LSTM
- 如何开发Keras序列到序列预测的编码器 - 解码器模型
- 如何诊断LSTM模型的过度拟合和欠拟合
- 如何开发一种编码器 - 解码器模型,注重Keras中的序列到序列预测
- 编码器 - 解码器长短期存储器网络
- 神经网络中爆炸梯度的温和介绍
- 对时间反向传播的温和介绍
- 生成长短期记忆网络的温和介绍
- 专家对长短期记忆网络的简要介绍
- 在序列预测问题上充分利用LSTM
- 编辑器 - 解码器循环神经网络全局注意的温和介绍
- 如何利用长短时记忆循环神经网络处理很长的序列
- 如何在Python中对一个热编码序列数据
- 如何使用编码器 - 解码器LSTM来回显随机整数序列
- 具有注意力的编码器 - 解码器RNN体系结构的实现模式
- 学习使用编码器解码器LSTM循环神经网络添加数字
- 如何学习长短时记忆循环神经网络回声随机整数
- 具有Keras的长短期记忆循环神经网络的迷你课程
- LSTM自动编码器的温和介绍
- 如何用Keras中的长短期记忆模型进行预测
- 用Python中的长短期内存网络演示内存
- 基于循环神经网络的序列预测模型的简要介绍
- 深度学习的循环神经网络算法之旅
- 如何重塑Keras中长短期存储网络的输入数据
- 了解Keras中LSTM的返回序列和返回状态之间的差异
- RNN展开的温和介绍
- 5学习LSTM循环神经网络的简单序列预测问题的例子
- 使用序列进行预测
- 堆叠长短期内存网络
- 什么是教师强制循环神经网络?
- 如何在Python中使用TimeDistributed Layer for Long Short-Term Memory Networks
- 如何准备Keras中截断反向传播的序列预测
- 如何在使用LSTM进行训练和预测时使用不同的批量大小
- Machine Learning Mastery 机器学习算法教程
- 机器学习算法之旅
- 用于机器学习的装袋和随机森林集合算法
- 从头开始实施机器学习算法的好处
- 更好的朴素贝叶斯:从朴素贝叶斯算法中获取最多的12个技巧
- 机器学习的提升和AdaBoost
- 选择机器学习算法:Microsoft Azure的经验教训
- 机器学习的分类和回归树
- 什么是机器学习中的混淆矩阵
- 如何使用Python从头开始创建算法测试工具
- 通过创建机器学习算法的目标列表来控制
- 从头开始停止编码机器学习算法
- 在实现机器学习算法时,不要从开源代码开始
- 不要使用随机猜测作为基线分类器
- 浅谈机器学习中的概念漂移
- 温和介绍机器学习中的偏差 - 方差权衡
- 机器学习的梯度下降
- 机器学习算法如何工作(他们学习输入到输出的映射)
- 如何建立机器学习算法的直觉
- 如何实现机器学习算法
- 如何研究机器学习算法行为
- 如何学习机器学习算法
- 如何研究机器学习算法
- 如何研究机器学习算法
- 如何在Python中从头开始实现反向传播算法
- 如何用Python从头开始实现Bagging
- 如何用Python从头开始实现基线机器学习算法
- 如何在Python中从头开始实现决策树算法
- 如何用Python从头开始实现学习向量量化
- 如何利用Python从头开始随机梯度下降实现线性回归
- 如何利用Python从头开始随机梯度下降实现Logistic回归
- 如何用Python从头开始实现机器学习算法表现指标
- 如何在Python中从头开始实现感知器算法
- 如何在Python中从零开始实现随机森林
- 如何在Python中从头开始实现重采样方法
- 如何用Python从头开始实现简单线性回归
- 如何用Python从头开始实现堆栈泛化(Stacking)
- K-Nearest Neighbors for Machine Learning
- 学习机器学习的向量量化
- 机器学习的线性判别分析
- 机器学习的线性回归
- 使用梯度下降进行机器学习的线性回归教程
- 如何在Python中从头开始加载机器学习数据
- 机器学习的Logistic回归
- 机器学习的Logistic回归教程
- 机器学习算法迷你课程
- 如何在Python中从头开始实现朴素贝叶斯
- 朴素贝叶斯机器学习
- 朴素贝叶斯机器学习教程
- 机器学习算法的过拟合和欠拟合
- 参数化和非参数机器学习算法
- 理解任何机器学习算法的6个问题
- 在机器学习中拥抱随机性
- 如何使用Python从头开始扩展机器学习数据
- 机器学习的简单线性回归教程
- 有监督和无监督的机器学习算法
- 用于机器学习的支持向量机
- 在没有数学背景的情况下理解机器学习算法的5种技术
- 最好的机器学习算法
- 教程从头开始在Python中实现k-Nearest Neighbors
- 通过从零开始实现它们来理解机器学习算法(以及绕过坏代码的策略)
- 使用随机森林:在121个数据集上测试179个分类器
- 为什么从零开始实现机器学习算法
- Machine Learning Mastery 机器学习入门教程
- 机器学习入门的四个步骤:初学者入门与实践的自上而下策略
- 你应该培养的 5 个机器学习领域
- 一种选择机器学习算法的数据驱动方法
- 机器学习中的分析与数值解
- 应用机器学习是一种精英政治
- 机器学习的基本概念
- 如何成为数据科学家
- 初学者如何在机器学习中弄错
- 机器学习的最佳编程语言
- 构建机器学习组合
- 机器学习中分类与回归的区别
- 评估自己作为数据科学家并利用结果建立惊人的数据科学团队
- 探索 Kaggle 大师的方法论和心态:对 Diogo Ferreira 的采访
- 扩展机器学习工具并展示掌握
- 通过寻找地标开始机器学习
- 温和地介绍预测建模
- 通过提供结果在机器学习中获得梦想的工作
- 如何开始机器学习:自学蓝图
- 开始并在机器学习方面取得进展
- 应用机器学习的 Hello World
- 初学者如何使用小型项目开始机器学习并在 Kaggle 上进行竞争
- 我如何开始机器学习? (简短版)
- 我是如何开始机器学习的
- 如何在机器学习中取得更好的成绩
- 如何从在银行工作到担任 Target 的高级数据科学家
- 如何学习任何机器学习工具
- 使用小型目标项目深入了解机器学习工具
- 获得付费申请机器学习
- 映射机器学习工具的景观
- 机器学习开发环境
- 机器学习金钱
- 程序员的机器学习
- 机器学习很有意思
- 机器学习是 Kaggle 比赛
- 机器学习现在很受欢迎
- 机器学习掌握方法
- 机器学习很重要
- 机器学习 Q& A:概念漂移,更好的结果和学习更快
- 缺乏自学机器学习的路线图
- 机器学习很重要
- 快速了解任何机器学习工具(即使您是初学者)
- 机器学习工具
- 找到你的机器学习部落
- 机器学习在一年
- 通过竞争一致的大师 Kaggle
- 5 程序员在机器学习中开始犯错误
- 哲学毕业生到机器学习从业者(Brian Thomas 采访)
- 机器学习入门的实用建议
- 实用机器学习问题
- 使用来自 UCI 机器学习库的数据集练习机器学习
- 使用秘籍的任何机器学习工具快速启动
- 程序员可以进入机器学习
- 程序员应该进入机器学习
- 项目焦点:Shashank Singh 的人脸识别
- 项目焦点:使用 Mahout 和 Konstantin Slisenko 进行堆栈交换群集
- 机器学习自学指南
- 4 个自学机器学习项目
- ÁlvaroLemos 如何在数据科学团队中获得机器学习实习
- 如何思考机器学习
- 现实世界机器学习问题之旅
- 有关机器学习的有用知识
- 如果我没有学位怎么办?
- 如果我不是一个优秀的程序员怎么办?
- 如果我不擅长数学怎么办?
- 为什么机器学习算法会处理以前从未见过的数据?
- 是什么阻碍了你的机器学习目标?
- 什么是机器学习?
- 机器学习适合哪里?
- 为什么要进入机器学习?
- 研究对您来说很重要的机器学习问题
- 你这样做是错的。为什么机器学习不必如此困难
- Machine Learning Mastery Sklearn 教程
- Scikit-Learn 的温和介绍:Python 机器学习库
- 使用 Python 管道和 scikit-learn 自动化机器学习工作流程
- 如何以及何时使用带有 scikit-learn 的校准分类模型
- 如何比较 Python 中的机器学习算法与 scikit-learn
- 用于机器学习开发人员的 Python 崩溃课程
- 用 scikit-learn 在 Python 中集成机器学习算法
- 使用重采样评估 Python 中机器学习算法的表现
- 使用 Scikit-Learn 在 Python 中进行特征选择
- Python 中机器学习的特征选择
- 如何使用 scikit-learn 在 Python 中生成测试数据集
- scikit-learn 中的机器学习算法秘籍
- 如何使用 Python 处理丢失的数据
- 如何开始使用 Python 进行机器学习
- 如何使用 Scikit-Learn 在 Python 中加载数据
- Python 中概率评分方法的简要介绍
- 如何用 Scikit-Learn 调整算法参数
- 如何在 Mac OS X 上安装 Python 3 环境以进行机器学习和深度学习
- 使用 scikit-learn 进行机器学习简介
- 从 shell 到一本带有 Fernando Perez 单一工具的书的 IPython
- 如何使用 Python 3 为机器学习开发创建 Linux 虚拟机
- 如何在 Python 中加载机器学习数据
- 您在 Python 中的第一个机器学习项目循序渐进
- 如何使用 scikit-learn 进行预测
- 用于评估 Python 中机器学习算法的度量标准
- 使用 Pandas 为 Python 中的机器学习准备数据
- 如何使用 Scikit-Learn 为 Python 机器学习准备数据
- 项目焦点:使用 Artem Yankov 在 Python 中进行事件推荐
- 用于机器学习的 Python 生态系统
- Python 是应用机器学习的成长平台
- Python 机器学习书籍
- Python 机器学习迷你课程
- 使用 Pandas 快速和肮脏的数据分析
- 使用 Scikit-Learn 重新调整 Python 中的机器学习数据
- 如何以及何时使用 ROC 曲线和精确调用曲线进行 Python 分类
- 使用 scikit-learn 在 Python 中保存和加载机器学习模型
- scikit-learn Cookbook 书评
- 如何使用 Anaconda 为机器学习和深度学习设置 Python 环境
- 使用 scikit-learn 在 Python 中进行 Spot-Check 分类机器学习算法
- 如何在 Python 中开发可重复使用的抽样检查算法框架
- 使用 scikit-learn 在 Python 中进行 Spot-Check 回归机器学习算法
- 使用 Python 中的描述性统计来了解您的机器学习数据
- 使用 OpenCV,Python 和模板匹配来播放“哪里是 Waldo?”
- 使用 Pandas 在 Python 中可视化机器学习数据
- Machine Learning Mastery 统计学教程
- 浅谈计算正态汇总统计量
- 非参数统计的温和介绍
- Python中常态测试的温和介绍
- 浅谈Bootstrap方法
- 浅谈机器学习的中心极限定理
- 浅谈机器学习中的大数定律
- 机器学习的所有统计数据
- 如何计算Python中机器学习结果的Bootstrap置信区间
- 浅谈机器学习的Chi-Squared测试
- 机器学习的置信区间
- 随机化在机器学习中解决混杂变量的作用
- 机器学习中的受控实验
- 机器学习统计学速成班
- 统计假设检验的关键值以及如何在Python中计算它们
- 如何在机器学习中谈论数据(统计学和计算机科学术语)
- Python中数据可视化方法的简要介绍
- Python中效果大小度量的温和介绍
- 估计随机机器学习算法的实验重复次数
- 机器学习评估统计的温和介绍
- 如何计算Python中的非参数秩相关性
- 如何在Python中计算数据的5位数摘要
- 如何在Python中从头开始编写学生t检验
- 如何在Python中生成随机数
- 如何转换数据以更好地拟合正态分布
- 如何使用相关来理解变量之间的关系
- 如何使用统计信息识别数据中的异常值
- 用于Python机器学习的随机数生成器简介
- k-fold交叉验证的温和介绍
- 如何计算McNemar的比较两种机器学习量词的测试
- Python中非参数统计显着性测试简介
- 如何在Python中使用参数统计显着性测试
- 机器学习的预测间隔
- 应用统计学与机器学习的密切关系
- 如何使用置信区间报告分类器表现
- 统计数据分布的简要介绍
- 15 Python中的统计假设检验(备忘单)
- 统计假设检验的温和介绍
- 10如何在机器学习项目中使用统计方法的示例
- Python中统计功效和功耗分析的简要介绍
- 统计抽样和重新抽样的简要介绍
- 比较机器学习算法的统计显着性检验
- 机器学习中统计容差区间的温和介绍
- 机器学习统计书籍
- 评估机器学习模型的统计数据
- 机器学习统计(7天迷你课程)
- 用于机器学习的简明英语统计
- 如何使用统计显着性检验来解释机器学习结果
- 什么是统计(为什么它在机器学习中很重要)?
- Machine Learning Mastery 时间序列入门教程
- 如何在 Python 中为时间序列预测创建 ARIMA 模型
- 用 Python 进行时间序列预测的自回归模型
- 如何回溯机器学习模型的时间序列预测
- Python 中基于时间序列数据的基本特征工程
- R 的时间序列预测热门书籍
- 10 挑战机器学习时间序列预测问题
- 如何将时间序列转换为 Python 中的监督学习问题
- 如何将时间序列数据分解为趋势和季节性
- 如何用 ARCH 和 GARCH 模拟波动率进行时间序列预测
- 如何将时间序列数据集与 Python 区分开来
- Python 中时间序列预测的指数平滑的温和介绍
- 用 Python 进行时间序列预测的特征选择
- 浅谈自相关和部分自相关
- 时间序列预测的 Box-Jenkins 方法简介
- 用 Python 简要介绍时间序列的时间序列预测
- 如何使用 Python 网格搜索 ARIMA 模型超参数
- 如何在 Python 中加载和探索时间序列数据
- 如何使用 Python 对 ARIMA 模型进行手动预测
- 如何用 Python 进行时间序列预测的预测
- 如何使用 Python 中的 ARIMA 进行样本外预测
- 如何利用 Python 模拟残差错误来纠正时间序列预测
- 使用 Python 进行数据准备,特征工程和时间序列预测的移动平均平滑
- 多步时间序列预测的 4 种策略
- 如何在 Python 中规范化和标准化时间序列数据
- 如何利用 Python 进行时间序列预测的基线预测
- 如何使用 Python 对时间序列预测数据进行功率变换
- 用于时间序列预测的 Python 环境
- 如何重构时间序列预测问题
- 如何使用 Python 重新采样和插值您的时间序列数据
- 用 Python 编写 SARIMA 时间序列预测
- 如何在 Python 中保存 ARIMA 时间序列预测模型
- 使用 Python 进行季节性持久性预测
- 基于 ARIMA 的 Python 历史规模敏感性预测技巧分析
- 简单的时间序列预测模型进行测试,这样你就不会欺骗自己
- 标准多变量,多步骤和多站点时间序列预测问题
- 如何使用 Python 检查时间序列数据是否是固定的
- 使用 Python 进行时间序列数据可视化
- 7 个机器学习的时间序列数据集
- 时间序列预测案例研究与 Python:波士顿每月武装抢劫案
- Python 的时间序列预测案例研究:巴尔的摩的年度用水量
- 使用 Python 进行时间序列预测研究:法国香槟的月销售额
- 使用 Python 的置信区间理解时间序列预测不确定性
- 11 Python 中的经典时间序列预测方法(备忘单)
- 使用 Python 进行时间序列预测表现测量
- 使用 Python 7 天迷你课程进行时间序列预测
- 时间序列预测作为监督学习
- 什么是时间序列预测?
- 如何使用 Python 识别和删除时间序列数据的季节性
- 如何在 Python 中使用和删除时间序列数据中的趋势信息
- 如何在 Python 中调整 ARIMA 参数
- 如何用 Python 可视化时间序列残差预测错误
- 白噪声时间序列与 Python
- 如何通过时间序列预测项目
- Machine Learning Mastery XGBoost 教程
- 通过在 Python 中使用 XGBoost 提前停止来避免过度拟合
- 如何在 Python 中调优 XGBoost 的多线程支持
- 如何配置梯度提升算法
- 在 Python 中使用 XGBoost 进行梯度提升的数据准备
- 如何使用 scikit-learn 在 Python 中开发您的第一个 XGBoost 模型
- 如何在 Python 中使用 XGBoost 评估梯度提升模型
- 在 Python 中使用 XGBoost 的特征重要性和特征选择
- 浅谈机器学习的梯度提升算法
- 应用机器学习的 XGBoost 简介
- 如何在 macOS 上为 Python 安装 XGBoost
- 如何在 Python 中使用 XGBoost 保存梯度提升模型
- 从梯度提升开始,比较 165 个数据集上的 13 种算法
- 在 Python 中使用 XGBoost 和 scikit-learn 进行随机梯度提升
- 如何使用 Amazon Web Services 在云中训练 XGBoost 模型
- 在 Python 中使用 XGBoost 调整梯度提升的学习率
- 如何在 Python 中使用 XGBoost 调整决策树的数量和大小
- 如何在 Python 中使用 XGBoost 可视化梯度提升决策树
- 在 Python 中开始使用 XGBoost 的 7 步迷你课程