逻辑回归模型的损失函数是Logistic Loss或Cross-Entropy Loss,公式为:
$$ J(\theta) = -\frac{1}{m} \sum_{i = 1}^m [y^{(i)}\log(h_{\theta}(x^{(i)})) + (1 - y^{(i)})\log(1 - h_{\theta}(x^{(i)}))] $$
其中,$m$表示样本数量,$h_{\theta}(x^{(i)})$是逻辑回归函数,$y^{(i)}$表示实际标签,$\theta$是模型的参数。该损失函数的意义是用估计标签$h_{\theta}(x^{(i)})$和实际标签$y^{(i)}$之间的差距来衡量模型预测的准确性。
对于该损失函数的更深入理解和相关学习资源,可以参考机器学习经典书籍《周志华《机器学习》》或者MOOC在线课程,如Coursera上的Andrew Ng的Machine Learning。