Skip to content

Commit 562a018

Browse files
mekiciAtcold
andauthored
[TR] index.md update, translate 07 11 13 14 (Atcold#491)
* [TR] index.md (updated) Weeks 10-11-12 added to the index * [TR] index.md updated Week 13 added to the index * [TR] translation of 07.md-11.md-13.md-14.md * Update docs/tr/week11/11.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week13/13.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week13/13.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week07/07.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week14/14.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week11/11.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week14/14.md Co-authored-by: Alfredo Canziani <[email protected]> * Update docs/tr/week07/07.md Co-authored-by: Alfredo Canziani <[email protected]> Co-authored-by: Alfredo Canziani <[email protected]>
1 parent 30845e1 commit 562a018

File tree

5 files changed

+146
-51
lines changed

5 files changed

+146
-51
lines changed

docs/tr/index.md

Lines changed: 22 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -19,7 +19,7 @@ translator: Murat Ekici
1919

2020
## Açıklama
2121

22-
Bu kurs,gözetimli ve gözetimsiz derin öğrenme, gömme yöntemleri, ölçev öğrenme (metric learning), evrişimsel(CNN, Convolutional Neural Network) ve özyineli ağlara (RNN, Recurrent Neural Network) odaklanarak derin öğrenme ve özniteliksel öğrenme alanındaki en yeni teknikleri ve bu tekniklerin bilgisayarlı görü (computer vision), doğal dil anlama (natural language understanding) ve ses tanıma alanlarınlarındaki uygulamalarını konu almaktadır.
22+
Bu kurs, gözetimli ve gözetimsiz derin öğrenme, gömme yöntemleri, ölçev öğrenme (metric learning), evrişimsel(CNN, Convolutional Neural Network) ve özyineli ağlara (RNN, Recurrent Neural Network) odaklanarak derin öğrenme ve özniteliksel öğrenme alanındaki en yeni teknikleri ve bu tekniklerin bilgisayarlı görü (computer vision), doğal dil anlama (natural language understanding) ve ses tanıma alanlarınlarındaki uygulamalarını konu almaktadır.
2323
Önkoşullar:[DS-GA 1001 Veri Bilimine Giriş](https://cds.nyu.edu/academics/ms-curriculum/) ya da lisansüstü düzeyde makine öğrenmesi kursu.
2424

2525

@@ -272,11 +272,31 @@ Bu kurs,gözetimli ve gözetimsiz derin öğrenme, gömme yöntemleri, ölçev
272272
<a href="https://youtu.be/f01J0Dri-6k">🎥</a>
273273
</td>
274274
</tr>
275+
<!-- =============================== WEEK 13 =============================== -->
276+
<tr>
277+
<td rowspan="3" align="center"><a href="{{site.baseurl}}/tr/week13/13">⑬</a></td>
278+
<td rowspan="2">Anlatım</td>
279+
<td><a href="{{site.baseurl}}/tr/week13/13-1"> Grafik Evrişimsel Ağlar (GCN) I</a></td>
280+
<td rowspan="2">
281+
<a href="https://drive.google.com/file/d/1oq-nZE2bEiQjqBlmk5_N_rFC8LQY0jQr/">🖥️</a>
282+
<a href="https://youtu.be/Iiv9R6BjxHM">🎥</a>
283+
</td>
284+
</tr>
285+
<tr><td><a href="{{site.baseurl}}/tr/week13/13-2">GCN II</a></td></tr>
286+
<tr>
287+
<td rowspan="1">Uygulama</td>
288+
<td><a href="{{site.baseurl}}/tr/week13/13-3">GCN III</a></td>
289+
<td>
290+
<a href="https://github.com/Atcold/pytorch-Deep-Learning/blob/master/slides/11%20-%20GCN.pdf">🖥️</a>
291+
<a href="https://github.com/Atcold/pytorch-Deep-Learning/blob/master/16-gated_GCN.ipynb">📓</a>
292+
<a href="https://youtu.be/2aKXWqkbpWg">🎥</a>
293+
</td>
294+
</tr>
275295

276296
</tbody>
277297
</table>
278298

279-
299+
<br/><br/>
280300

281301

282302
## Ekip

docs/tr/week07/07.md

Lines changed: 39 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,39 @@
1+
---
2+
lang: tr
3+
lang-ref: ch.07
4+
title: Hafta 7
5+
translation-date: 12 Jun 2020
6+
translator: Murat Ekici
7+
---
8+
9+
10+
## Ders bölümü A
11+
12+
Bu bölümde Enerji Tabanlı Modelleri (Energy Based Model, EBM) ve ileri beslemeli ağlar dışında farklı yaklaşımları ele alıyoruz.
13+
14+
<!--
15+
16+
## Lecture part A
17+
18+
We introduced the concept of the energy-based models and the intention for different approaches other than feed-forward networks. To solve the difficulty of the inference in EBM, latent variables are used to provide auxiliary information and enable multiple possible predictions. Finally, the EBM can generalize to probabilistic model with more flexible scoring functions.
19+
-->
20+
21+
## Ders bölümü B
22+
23+
Bu kısımda ise, öz-denetimli öğrenme (self-supervised learning), EBM'lerin nasıl eğitileceğini ve Gizli Değişken (Latent Variable) EBM'yi özellikle bir K-ortalamalı örnekle açıklıyoruz.Ayrıca Karşıtsal Yöntemleri (Contrastive Methods), topografik haritaları ve BERT'i tanıtıyoruz. Son olarak, bir topografik harita kullanarak da açıklanan Karşıt Çeşitlilik (Contrastive Divergence) kavramını açıkloyoruz.
24+
25+
<!--
26+
## Lecture part B
27+
28+
We discussed self-supervised learning, introduced how to train an Energy-based models, discussed Latent Variable EBM, specifically with an explained K-means example. We also introduced Contrastive Methods, explained a denoising autoencoder with a topographic map, the training process, and how it can be used, followed by an introduction to BERT. Finally, we talked about Contrastive Divergence, also explained using a topographic map.
29+
-->
30+
31+
## Uygulama
32+
33+
Otokodlayıcıların bazı uygulamalarını ve neden kullanıldığını ele alıyoruz. Ardından, otokodlayıcıların farklı mimarileri, aşırı öğrenme sorunlarından nasıl kaçınılacağı ve kullanmamız gereken kayıp fonksiyonları hakkında konuşacağız. Son olarak, standart bir otokodlayıcı ve gürültü azaltıcı bir otokodlayıcı uygulaması yapacağız.
34+
35+
<!--
36+
## Practicum
37+
38+
We discussed some applications of Autoencoders and talked about why we want to use them. Then we talked about different architectures of Autoencoders (under or over complete hidden layer), how to avoid overfitting issues and the loss functions we should use. Finally we implemented a standard Autoencoder and a denoising Autoencoder.
39+
-->

docs/tr/week11/11.md

Lines changed: 40 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,40 @@
1+
---
2+
lang: tr
3+
lang-ref: ch.11
4+
title: Hafta 11
5+
translation-date: 12 Jun 2020
6+
translator: Murat Ekici
7+
---
8+
9+
10+
## Ders bölümü A
11+
12+
Bu bölümde, Pytorch'taki yaygın aktivasyon fonksiyonlarını ele alıyoruz. Özellikle dolanık ve düz aktivasyon fonksiyonlarını karşılaştıracağız. Daha sonra Pytorch'daki yaygın kayıp fonksiyonları hakkında bilgi edineceğiz.
13+
14+
<!--
15+
16+
## Lecture part A
17+
18+
In this section, we discussed about the common activation functions in Pytorch. In particular, we compared activations with kink(s) versus smooth activations - the former is preferred in a deep neural network as the latter might suffer with gradient vanishing problem. We then learned about the common loss functions in Pytorch.
19+
-->
20+
21+
## Ders bölümü B
22+
23+
Bu bölümde, kayıp fonksiyonları - özellikle marj bazlı kayıplar ve bunların uygulamaları hakkında bilgi edinmeye devam edeceğiz. Daha sonra, EBM'ler için iyi bir kayıp fonksiyonunun nasıl tasarlanacağının yanı sıra iyi bilinen EBM kayıp fonksiyonlarının örneklerini inceleyeceğiz.
24+
25+
<!--
26+
## Lecture part B
27+
28+
In this section, we continued to learn about loss functions - in particular, margin-based losses and their applications. We then discussed how to design a good loss function for EBMs as well as examples of well-known EBM loss functions. We gave particular attention to margin-based loss function here, as well as explaining the idea of "most offending incorrect answer.
29+
-->
30+
31+
## Uygulama
32+
33+
Bu uygulama yoğun trafikte araç kullanmak için etkili bir politika öğrenimi konu almaktadır. Farklı maliyet işlevlerini optimize ederek gerçek dünya dinamiklerinin öğrenilmiş bir modelini ortaya çıkararak birden çok politikanın eğitilmesini kapsamaktadır. Buradaki fikir, modelin eğitim verildiği durumlardan sapmasını temsil eden bir maliyet terimi kullanarak modelin tahminindeki belirsizliği en aza indirmektir.
34+
35+
36+
<!--
37+
## Practicum
38+
39+
This practicum proposed effective policy learning for driving in dense traffic. We trained multiple policies by unrolling a learned model of the real world dynamics by optimizing different cost functions. The idea is to minimize the uncertainty in the model's prediction by introducing a cost term that represents the model's divergence from the states it is trained on.
40+
-->

docs/tr/week13/13.md

Lines changed: 25 additions & 26 deletions
Original file line numberDiff line numberDiff line change
@@ -1,41 +1,40 @@
1-
---
1+
2+
lang: tr
23
lang-ref: ch.13
34
title: Hafta 13
4-
lang: tr
5-
translation-date: 15 Aug 2020
6-
translator: emirceyani
5+
translation-date: 12 Jun 2020
6+
translator: Murat Ekici
77
---
88

9-
## Ders Kısım A
10-
<!--
11-
In this section, we discuss the architecture and convolution of traditional convolutional neural networks.
12-
Then we extend to the graph domain. We understand the characteristics of graph and define the graph convolution.
13-
Finally, we introduce spectral graph convolutional neural networks and discuss how to perform spectral convolution.
14-
-->
15-
Bu bölümde evrişimli sinir ağlarının mimarilerini ve evrişim işlemini tartışacağız. Daha sonra bu mimarileri ve evrişim işlemini, çizgeler *(graph)* için genelleyeceğiz.
16-
Çizgelerein yapılarını anlayacak ve çizge evrişimini *(graph convolution)* tanımlayacağız.
17-
Son olarak, spektral çizge evrişimli sinir ağlarını *(spectral graph convolutional neural networks)* tanıtacak ve spektral evrişimin *(spectral convolution)* nasıl gerçekleştiğini ele alacağız.
189

19-
## Ders Kısım B
10+
## Ders bölümü A
11+
12+
Bu bölümde, geleneksel evrişimli sinir ağlarının mimarisini ve evrişimini tartışıyoruz. Ardından çizge (graph) alanına uzanarak çizgenin özelliklerini tanıyor ve çizge evrişimini (graph convolutuon) tanımlıyoruz. Son olarak, spektral çizge evrişimli sinir ağlarını (spectral graph convolutional neural networks) tanıtıyoruz ve spektral evrişimin (scpectral convolution) nasıl gerçekleştirileceğini ele alıyoruz.
13+
2014
<!--
21-
This section covers the complete spectrum of Graph Convolutional Networks (GCNs), starting with the implementation of Spectral Convolution through Spectral Networks.
22-
It then provides insights on applicability of the other convolutional definition of Template Matching to graphs, leading to Spatial networks.
23-
Various architectures employing the two approaches are detailed out with their corresponding pros & cons, experiments, benchmarks and applications.
15+
16+
## Lecture part A
17+
18+
In this section, we discuss the architecture and convolution of traditional convolutional neural networks. Then we extend to the graph domain. We understand the characteristics of graph and define the graph convolution. Finally, we introduce spectral graph convolutional neural networks and discuss how to perform spectral convolution.
2419
-->
2520

26-
Bu bölümde Çizge Evrişimsel Ağların (Graph Convolutıonal Networks, GCN) tüm spektrumunu, spektral evrişimin Spektral Ağlar yolu ıle tanımlayarak başlayacağız.
21+
## Ders bölümü B
2722

28-
Bu iki yöntemi kullanan mimarileri, artıları ve eksileri ile birlikte çeşitli deneyler, uygulamaları
29-
de gözden geçireceğiz.
23+
Bu bölüm, spektral evrişimin spektral ağlara uygulanmasından başlayarak Çizge Evrişimsel Ağların (Graph Convolutional Networks, GCN) tüm spektrumunu kapsamaktadır. Daha sonra Uzamsal (Spatial) ağları olanaklı kılan çizgelerde şablon eşleştirmenin evrişimsel tanımının uygulanmasını ele alıyoruz. İki yaklaşımı kullanan çeşitli mimariler, karşılık gelen artıları ve eksileri, deneyleri, karşılaştırmaları ve uygulamaları ile detaylandırıyoruz.
3024

3125

26+
<!--
27+
## Lecture part B
28+
29+
This section covers the complete spectrum of Graph Convolutional Networks (GCNs), starting with the implementation of Spectral Convolution through Spectral Networks. It then provides insights on applicability of the other convolutional definition of Template Matching to graphs, leading to Spatial networks. Various architectures employing the two approaches are detailed out with their corresponding pros & cons, experiments, benchmarks and applications.
30+
-->
3231

3332
## Uygulama
33+
34+
Bu bölümde, veri yapısını kullanan GCN mimarisini tanıtıyoruz. Öz dikkat ile yakından ilgili olan GCN'nin genel notasyonunu anladıktan sonra, Artık Kapılı GCN (Residual Gated GCN) olarak bilinen özel bir türünün teorisini ve kodunu inceliyoruz.
35+
3436
<!--
35-
In this section, we introduce Graph Convolutional Network (GCN) which is one type of architecture that utilizes the structure of data.
36-
Actually, the concept of GCNs is closely related to self-attention.
37-
After understanding the general notation, representation and equations of GCN,
38-
we delve into the theory and code of a specific type of GCN known as Residual Gated GCN.
37+
## Practicum
38+
39+
In this section, we introduce Graph Convolutional Network (GCN) which is one type of architecture that utilizes the structure of data. Actually, the concept of GCNs is closely related to self-attention. After understanding the general notation, representation and equations of GCN, we delve into the theory and code of a specific type of GCN known as Residual Gated GCN.
3940
-->
40-
Bu bölümde, verinin yapısından yararlabilen GCN mimarisini tanıtacağız. GCN yapısının altında yatan konseptin öz-dikkat ile oldukça yakın olduğunu göreceğiz.
41-
Notasyonumuzu oluşturduktan sonra, GCN'lerin özel bir türü olan Artık Kapılı GCN *(Resıdual Gated GCN)* lerin teorisini ve kodlarını inceleyeceğiz.

docs/tr/week14/14.md

Lines changed: 20 additions & 23 deletions
Original file line numberDiff line numberDiff line change
@@ -1,42 +1,39 @@
1-
---
2-
lang-ref: ch.14
1+
32
lang: tr
4-
title: Week 14
5-
translation-date: 22 Aug 2020
6-
translator: emirceyani
3+
lang-ref: ch.14
4+
title: Hafta 14
5+
translation-date: 12 Jun 2020
6+
translator: Murat Ekici
77
---
88

99

10-
## Ders Kısım A
11-
12-
Bu kısımda, yapılandırılmış kestirimden bahsedeceğiz. İlk önce enerji-bazlı faktör çizgelerini tanıtacak ve bu yapılar için verimli çıkarımın
13-
nasıl gerçekleştirildiğini öğreneceğiz. Sonra, enerji-bazlı modellerden bazı örnekleri ele alacağız. Son olarak, Çizge Dönüştürücü Ağ *(Graph Transformer Net)*
14-
üzerine konuşacağız.
10+
## Ders bölümü A
1511

12+
Bu bölümde, yapılandırılmış kestirimi tartıştık. İlk olarak enerji tabanlı faktör çizgelerini ve bu yapılar için verimli çıkarımın nasıl yapılacağını tanıttık. Daha sonra, basit yapıda enerji tabanlı faktör çizgelerine örnekler verdik. Son olarak, Çizge Dönüştürücü Ağı (Graph Transformer Net) tartıştık.
1613

1714
<!--
15+
1816
## Lecture part A
19-
In this section, we discussed the structured prediction. We first introduced the Energy-Based factor graph and efficient inference for it. T
20-
hen we gave some examples for simple Energy-Based factor graphs with “shallow” factors. Finally, we discussed the Graph Transformer Net.
17+
18+
In this section, we discussed the structured prediction. We first introduced the Energy-Based factor graph and efficient inference for it. Then we gave some examples for simple Energy-Based factor graphs with “shallow” factors. Finally, we discussed the Graph Transformer Net.
2119
-->
2220

23-
## Ders Kısım B
21+
## Ders bölümü B
2422

25-
Dersin ikinci ayağında, grafik modellerinin enerji bazlı modelleerdki uygulamasını ele alacağız. değişik kayıp fonksiyonlarını kıyasladıktan sonra, Viterbi ile ileri algorştmalarının çizgesel dönüştürücü ağında uygulanmasına bakacağız.
26-
Sonra, geri yayılımın Lagrange formülasyonunu ve enerji bazlı modellerde değişimsel çıkarımı ele alacağız.
23+
Dersin ikinci ayağında, grafik model yöntemlerinin enerji tabanlı modellere uygulanmasını daha ayrıntılı olarak ele aldık. Farklı kayıp fonksiyonlarını karşılaştırdıktan sonra, Viterbi algoritmasının ve ileri yayılım algoritmansının çizge dönüştürücü ağlara uygulanmasını tartıştık. Daha sonra Lagrangian geri yayılım formülasyonunu ve ardından enerji tabanlı modeller için varyasyonel çıkarımı üstünde durduk.
2724

2825
<!--
2926
## Lecture part B
30-
The second leg of the lecture further discusses the application of graphical model methods to energy-based models.
31-
After spending some time comparing different loss functions, we discuss the application of the Viterbi algorithm and forward algorithm to graphical transformer networks.
32-
We then transition to discussing the Lagrangian formulation of backpropagation and then variational inference for energy-based models.
27+
28+
The second leg of the lecture further discusses the application of graphical model methods to energy-based models. After spending some time comparing different loss functions, we discuss the application of the Viterbi algorithm and forward algorithm to graphical transformer networks. We then transition to discussing the Lagrangian formulation of backpropagation and then variational inference for energy-based models.
3329
-->
3430

35-
## Pratik
36-
Derin sinir ağı gibi fazla parametreli modelleri eğitirken modelin eğitim verisini ezberleme riski her zaman vardır. Bu durum yüksek genelleme hatasına sebep verir. Bu durumu çözmek için, eğitim sürecini düzenlileştirebilir ve modelin bazı çözümleri öğrenmekten caydırarak gürültüye olan direncini güçlendirebiliriz.
31+
## Uygulama
32+
33+
Derin sinir ağları gibi yüksek düzeyde parametreleştirilmiş modelleri eğitirken, modelin eğitim verilerini aşırı öğrenme riski vardır. Bu durum yüksek genelleme hatasına yol açar. Aşırı öğrenmeyi azaltmak için düzenlileştirme kullanabilir ve modelin belirli çözümleri öğrenmesini engelleyerek gürültüye olan direncini arttırabiliriz.
34+
3735
<!--
3836
## Practicum
39-
When training highly parametrised models such as deep neural networks there is a risk of overfitting to the training data.
40-
This leads to greater generalization error.
41-
To help reduce overfitting we can introduce regularization into our training, discouraging certain solutions to decrease the extent to which our models will fit to noise.
37+
38+
When training highly parametrised models such as deep neural networks there is a risk of overfitting to the training data. This leads to greater generalization error. To help reduce overfitting we can introduce regularization into our training, discouraging certain solutions to decrease the extent to which our models will fit to noise.
4239
-->

0 commit comments

Comments
 (0)