Skip to content

Commit bc06024

Browse files
eisbilenlamberta
authored andcommitted
Update overfit_and_underfit.ipynb
1 parent 764881a commit bc06024

File tree

1 file changed

+6
-6
lines changed

1 file changed

+6
-6
lines changed

site/tr/tutorials/keras/overfit_and_underfit.ipynb

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -94,7 +94,7 @@
9494
},
9595
"cell_type": "markdown",
9696
"source": [
97-
"# Aşırı uyum(overfitting) ve yetersiz uyum (underfitting) nedir, inceleyelim"
97+
"# Aşırı uyum (overfitting) ve yetersiz uyum (underfitting) nedir, inceleyelim"
9898
]
9999
},
100100
{
@@ -167,11 +167,11 @@
167167
},
168168
"cell_type": "markdown",
169169
"source": [
170-
"## Download the IMDB dataset\n",
170+
"## IMDB veri setini indirelim\n",
171171
"\n",
172-
"Rather than using an embedding as in the previous notebook, here we will multi-hot encode the sentences. This model will quickly overfit to the training set. It will be used to demonstrate when overfitting occurs, and how to fight it. \n",
172+
"Önceki notebook'ta olduğu gibi 'emmbeding' işlemi yerine , bu örnekte cümlelere 'multi-hot encoding' işlemi uygulayacağız. Modelimiz hızlı bir şekilde eğitim verisine aşırı uyum gösterecektir. Bu örnek ile aşırı uyumun nasıl oluştuğunu ve nasıl baş edeceğimizi göstermiş olacağız. \n",
173173
"\n",
174-
"Multi-hot-encoding our lists means turning them into vectors of 0s and 1s. Concretely, this would mean for instance turning the sequence `[3, 5]` into a 10,000-dimensional vector that would be all-zeros except for indices 3 and 5, which would be ones. "
174+
"'Multi-hot-encoding' ile listemizi 0'lar ve 1'ler içeren vektöre dönüştürelim. our lists means turning them into vectors of 0s and 1s. Örnek olarak bu işlem ile `[3, 5]` dizisi, 3 ve 5 indisleri 1 olan bunun dışındaki tüm değerleri 0 olan 10,000 boyutlu bir vektöre çevrilir. "
175175
]
176176
},
177177
{
@@ -207,7 +207,7 @@
207207
},
208208
"cell_type": "markdown",
209209
"source": [
210-
"Let's look at one of the resulting multi-hot vectors. The word indices are sorted by frequency, so it is expected that there are more 1-values near index zero, as we can see in this plot:"
210+
"Sonuçta oluşan 'multi-hot' vektörlerden birine bakalım. Kelime indisleri frekanslarına göre sıralanmıştır, yani aşağıdaki grafikte görüldüğü gibi 0 indeksine yaklaştıkça daha fazla 1 değeri görürüz: "
211211
]
212212
},
213213
{
@@ -232,7 +232,7 @@
232232
"source": [
233233
"## Demonstrate overfitting\n",
234234
"\n",
235-
"The simplest way to prevent overfitting is to reduce the size of the model, i.e. the number of learnable parameters in the model (which is determined by the number of layers and the number of units per layer). In deep learning, the number of learnable parameters in a model is often referred to as the model's \"capacity\". Intuitively, a model with more parameters will have more \"memorization capacity\" and therefore will be able to easily learn a perfect dictionary-like mapping between training samples and their targets, a mapping without any generalization power, but this would be useless when making predictions on previously unseen data. \n",
235+
"Aşırı uyumu engellemenin en basit yolu model boyutunun küçültülmesidir. Model boyutunu, modelin katman sayısına ve katmanları içersinde yere alan birim sayısına bağlı olan öğrenebilir parametrelerin sayısı belirler. Derin öğrenmede, modelde yer alan öğrenebilir parametrelerin sayısı mdelin \"kapasitesi\" belirlemektedir. Daha basit haliyle, daha fazla parametreye sahip model \"memorization capacity\" Intuitively, a model with more parameters will have more \"memorization capacity\" and therefore will be able to easily learn a perfect dictionary-like mapping between training samples and their targets, a mapping without any generalization power, but this would be useless when making predictions on previously unseen data. \n",
236236
"\n",
237237
"Always keep this in mind: deep learning models tend to be good at fitting to the training data, but the real challenge is generalization, not fitting.\n",
238238
"\n",

0 commit comments

Comments
 (0)