第50章 真正的社死现场(求追读~)

 “任何机器学习的算法其实都是由三部分构成的:表示、评价指标和优化算法。”

 “表示,意味着用什么方式建模问题,比如决策树就会把一个分类问题建模成树状的分支结构,而支持向量机则是建模成在高维数据空间寻找超平面。”

 “评价指标,是评价模型好坏的标准,经常会用一个损失函数表示,损失函数越小则说明模型越接近最优。”

 “因此一个机器学习算法其实是在我们所选取的表示空间中,通过可以迭代的优化算法,不断降低损失函数以逼近最优的一种算法。”

 教室里,江铭用自信的声音阐述着他对机器学习的理解。

 ppt上展示着几张简图,分别是决策树与支持向量机的示意图,方便学生们能更加形象地理解。

 幸好,这个ppt是徐建华提前发给他的,而不是江铭自己做的。

 不然可能就只有白底黑字的公式推导了。

 江铭的讲课高屋建瓴,直通机器学习精髓,令台下的学生们听得津津有味。

 此时在一个女生宿舍的聊天小群里。

 “哇,他也太强了,我听徐教授的课的时候都没感觉像今天这样清晰。”

 “是啊,之前徐教授讲的时候,就完全按照一个一个算法讲过去。什么logistic回归,什么感知机的,还有这个树那个树,听得我都懵了。”

 “今天我才知道,原来只是表示方法的不同,再也不用课后再对着课本死记了。”

 “不过,江老师讲得再好,不代表萌萌就会专心听呀~你说是吧,萌萌?”

 “都上课20分钟了,怎么萌萌的脸还那么红啊,是不是发烧了呀~”

 萌萌全名叫章依萌,就是刚刚在课前乱讲的搞笑女孩,此时仿佛被舍友们抓住了把柄,一通调侃。

 还能有比自己乱说的时候被正主碰见更尴尬的事情吗?

 此时江铭已经讲到了深度神经网络的部分。

 “神经网络其实也是一种表示方法,它把一个问题表示为多层神经元的相互连接,并且通过不断优化神经元参数来不断逼近所拟合的函数,优化算法则是...”

 他翻到了下一页,突然停下。