💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
# 多类分类的逻辑回归 当涉及两个以上的类时,逻辑回归是已知的多项逻辑回归。在多项逻辑回归中,我们使用 softmax 函数代替 sigmoid,它是最受欢迎的函数之一。 Softmax 可以用数学表示如下: ![](https://img.kancloud.cn/56/c5/56c52f2d87b3388b2d381e228f51fc1b_3450x640.png) Softmax 函数产生每个类的概率,概率向量加 1.在预测时,具有最高 softmax 值的类成为输出或预测类。正如我们前面讨论的那样,损失函数是负对数似然函数`-l(w)`,它可以被优化器最小化,例如梯度下降。 多项逻辑回归的损失函数正式写成如下: ![](https://img.kancloud.cn/f2/c3/f2c3e842ba209ea40131073c7fbc906d_2360x540.png) 其中`φ(z)`是 softmax 函数。 我们将在本章后面实现这种损失函数。 让我们在下一节中深入研究一些例子。 您可以按照 Jupyter 笔记本中的代码`ch-04b_Classification`。