ニューラルネットの便利さが少しだけ腑に落ちた

最近 Coursera の Deep Learning Specialization を受講していて、ニューラルネットの復習のビデオがあったのですが、Linear Regressionをニューラルネットに当てはめるところで、ニューラルネットの便利さがすこしだけ腑に落ちました。

f:id:solt0723:20180411150446p:plain

これは線形回帰の関数(z)とシグモイド関数(y hat)、loss関数(L(a,y))をニューラルネットのレイヤーに入れている図なのですが、これまでであれば、それぞれを個別に扱う必要があったものが、1つのニューラルネットで扱えるのは確かに便利そーだなーと思いました。