|
594 | 594 | },
|
595 | 595 | "cell_type": "markdown",
|
596 | 596 | "source": [
|
597 |
| - "As you can see, the L2 regularized model has become much more resistant to overfitting than the baseline model, even though both models have the same number of parameters." |
| 597 | + "Göreceğiniz gibi, L2 regülarizasyonunun uygulandığı model, referans modelimiz ile aynı sayıda parametreye sahip olmasına karşın, aşırı uyuma çok daha dirençli bir hale geldi." |
598 | 598 | ]
|
599 | 599 | },
|
600 | 600 | {
|
|
604 | 604 | },
|
605 | 605 | "cell_type": "markdown",
|
606 | 606 | "source": [
|
607 |
| - "### Add dropout\n", |
| 607 | + "### Modelimize 'dropout' ekleyelim\n", |
608 | 608 | "\n",
|
609 |
| - "Dropout is one of the most effective and most commonly used regularization techniques for neural networks, developed by Hinton and his students at the University of Toronto. Dropout, applied to a layer, consists of randomly \"dropping out\" (i.e. set to zero) a number of output features of the layer during training. Let's say a given layer would normally have returned a vector [0.2, 0.5, 1.3, 0.8, 1.1] for a given input sample during training; after applying dropout, this vector will have a few zero entries distributed at random, e.g. [0, 0.5, \n", |
610 |
| - "1.3, 0, 1.1]. The \"dropout rate\" is the fraction of the features that are being zeroed-out; it is usually set between 0.2 and 0.5. At test time, no units are dropped out, and instead the layer's output values are scaled down by a factor equal to the dropout rate, so as to balance for the fact that more units are active than at training time.\n", |
| 609 | + "Dropout, Toronto Üniversitesi'nden Hilton ve öğrencileri tarafından geliştirilmiş olan bir yöntemdir. Sinir ağları için en etkin ve en yaygın kullanılan regülarizasyon yöntemlerinden biridir. Dropout, eğitim sürecinde katmanlara ait rastgele seçilen belirli sayıdaki çıktı özelliğinin \"bırakılması\" (değerinin sıfıra eşitlenmesiyle) anlamına gelmektedir. Örneğin, ele aldığımız katmanın eğitim sürecinde girdi değeri ile çıktı olarak [0.2, 0.5, 1.3, 0.8, 1.1] vektörü oluşturduğunu varsayalım; dropout uygulandıktan sonra bu vektör gösterildiği şekliyle rastgele dağılmış olarak çeşitli sıfır değerleri içerecektir; [0, 0.5, \n", |
| 610 | + "1.3, 0, 1.1]. \"Dropout oranı\" sıfırlanacak özelliklerin oranıdır; genelde 0.2 ile 0.5 arasında bir değer alır. Test sürecinde, daha fazla aktif birime sahip olmak için hiç bir birim sıfırlanmaz, bunun yerine dengeyi korumak için katmanların çıktı değerleri droput oranı ile aynı oranda küçültülür.\n", |
611 | 611 | "\n",
|
612 |
| - "In tf.keras you can introduce dropout in a network via the Dropout layer, which gets applied to the output of layer right before.\n", |
| 612 | + "tf.keras API'si Dropout katmanıyla, modelimize dropout işlemini uygulayabiliriz. \n", |
613 | 613 | "\n",
|
614 |
| - "Let's add two Dropout layers in our IMDB network to see how well they do at reducing overfitting:" |
| 614 | + "Aşırı uyumu ne oranda azalttığını değerlendirebilmek için, IMDB ağına iki adet Dropout katmanı ekleyelim:" |
615 | 615 | ]
|
616 | 616 | },
|
617 | 617 | {
|
|
664 | 664 | },
|
665 | 665 | "cell_type": "markdown",
|
666 | 666 | "source": [
|
667 |
| - "Adding dropout is a clear improvement over the baseline model. \n", |
| 667 | + "Droput eklenmesi, referans modele göre açık bir iyileşme sunmaktadır.\n", |
668 | 668 | "\n",
|
669 | 669 | "\n",
|
670 |
| - "To recap: here the most common ways to prevent overfitting in neural networks:\n", |
| 670 | + "Tekrardan özetleyelim: sinir ağlarında aşırı uyumu engellemek için yaygın olarak kullanılan yöntemler aşağıda listelenmiştir:\n", |
671 | 671 | "\n",
|
672 |
| - "* Get more training data.\n", |
673 |
| - "* Reduce the capacity of the network.\n", |
674 |
| - "* Add weight regularization.\n", |
675 |
| - "* Add dropout.\n", |
| 672 | + "* Daha fazla eğitim verisi kullanarak.\n", |
| 673 | + "* Ağın kapasitesini düşürerek.\n", |
| 674 | + "* Ağırlık regülarizasyonu ekleyerek.\n", |
| 675 | + "* Droput ekleyerek.\n", |
676 | 676 | "\n",
|
677 |
| - "And two important approaches not covered in this guide are data-augmentation and batch normalization." |
| 677 | + "Ve bu notebook'ta yer almayan diğer iki önemli yöntem ise: data-augmentation ve batch normalization yöntemleridir." |
678 | 678 | ]
|
679 | 679 | }
|
680 | 680 | ]
|
|
0 commit comments