-
Derece türü: İstatistikler" sertifikası
"Büyük Veri Analisti" Sertifikası -
Ek nitelikler: Veri Mühendisi" sertifikası
Veri Analitiği" sertifikası
"Büyük Veri Uzmanı" Sertifikası -
Final Sınavı: Final sunumları ile uygulamalı proje çalışması
-
Ders saatleri: Tam zamanlıPazartesi'den Cuma'ya 8:30 - 15:35 (resmi tatil olan haftalarda 8:30 - 17:10)
-
Eğitim dili: Alman
-
Süre: 16 Haftalar
İstatistikler
İstatistiksel temeller (yaklaşık 6 gün)
Ölçme teorisinin temelleri (evren ve örneklem, örneklem türleri, ölçme ve ölçek düzeyleri)
Tek değişkenli tanımlayıcı istatistikler (frekans dağılımları, merkezi ölçümler, dağılım ölçümleri, standart değer, histogramlar, çubuk grafikler, pasta grafikler, çizgi grafikler ve kutu grafikler)
İki değişkenli tanımlayıcı istatistikler (korelasyon ölçümleri, korelasyon katsayıları, çapraz tablolar, dağılım grafikleri ve gruplandırılmış çubuk grafikler)
Tümevarımsal çıkarımsal istatistiğin temelleri (olasılık dağılımı, normal dağılım, ortalama değer dağılımı, anlamlılık testi, Fisher'in boş hipotez testi, etki büyüklüğü, parametre tahmini, güven aralıkları, hata çubuğu grafikleri, güç analizleri ve optimum örneklem büyüklüğünün belirlenmesi)
İş sürecinde yapay zeka (AI)
Belirli yapay zeka teknolojilerinin sunumu
ve profesyonel ortamdaki olası uygulamalar
İki grubu karşılaştırma yöntemleri (yaklaşık 5 gün)
Bir örneklem için z- ve t-testi (belirli bir değerden sapma)
İki bağımsız/bağlantılı örneklem arasındaki ortalama fark için t-testi
Eylemlerin, önlemlerin, müdahalelerin ve diğer değişikliklerin etkinliğinin t-testleri ile test edilmesi (iki gruplu ön test-son test tasarımları)
Anlamlılık testlerinin desteklenmesi (Anderson-Darling testi, Ryan-Joiner testi, Levene testi, Bonnet testi, korelasyonlar için anlamlılık testi)
Parametrik olmayan yöntemler (Wilcoxon testi, işaret testi, Mann-Whitney testi)
Olumsallık analizleri (binom testi, Fisher'in kesin testi, ki-kare testi, ilişki ölçümleri ile çapraz tablolar)
Çeşitli grupların ortalamalarını karşılaştırma yöntemleri (yaklaşık 5 gün)
Tek ve iki faktörlü varyans analizi (basit ve dengeli ANOVA)
Çok faktörlü varyans analizi (genel doğrusal model)
Sabit, rastgele, çaprazlanmış ve iç içe geçmiş faktörler
Çoklu karşılaştırma yöntemleri (Tukey-HSD, Dunnett, Hsu-MCB, Games-Howell)
Etkileşim analizi (etkileşim etkilerinin analizi)
Varyans analizleri için seçicilik ve güç analizi
Deney Tasarımına Giriş (DoE) (yaklaşık 1 gün)
Tam ve kısmi faktöriyel deneysel tasarımlar
Proje çalışması (yaklaşık 3 gün)
Öğrenilen içeriği pekiştirmek için
Proje sonuçlarının sunumu
Veri Mühendisi
İş Zekasının Temelleri (yaklaşık 2 gün)
Uygulama alanları, iş zekası mimarisinin boyutları
İş zekasının temelleri, OLAP, OLTP, veri mühendislerinin görevleri
Veri Ambarı (DWH): yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış verilerin ele alınması ve işlenmesi
Gereksinim yönetimi (yaklaşık 2 gün)
Gereksinim analizinde görevler, hedefler ve prosedürler
Veri modelleme, ERM ile giriş/modelleme
UML'de giriş/modelleme
- Sınıf diyagramları
- Kullanım durumu analizi
- Faaliyet diyagramları
İş sürecinde yapay zeka (AI)
Belirli yapay zeka teknolojilerinin sunumu
ve profesyonel ortamdaki olası uygulamalar
Veritabanları (yaklaşık 3 gün)
Veritabanı sistemlerinin temelleri
Veritabanı yönetim sistemlerinin mimarisi
RDBMS Uygulaması
RDBMS'de veri modelinin uygulanması, normal formlar
SQL'e pratik ve teorik giriş
İlişkisel veritabanlarının sınırları, csv, json
Veri Ambarı (yaklaşık 4 gün)
Yıldız Şeması
Veri modelleme
RDBMS'de Yıldız Şemasının Oluşturulması
Snowflake Schema, temel bilgiler, veri modelleme
RDBMS'de Kar Tanesi Şemasının Oluşturulması
Galaxy Schema: Temel bilgiler, veri modelleme
Tip 1'den 5'e Yavaşça Değişen Boyut Tabloları - Yeniden Düzenleme, İstifleme, Yeniden Düzenleme, Mini Boyut ve Tip 5
Normal, nedensel, mini ve canavar, heterojen ve alt boyutlara giriş
Durum ve işlem odaklı karşılaştırması
DWH gerçek tabloları, yoğunluk ve depolama
ETL (yaklaşık 4 gün)
Veri Temizleme
- Boş Değerler
- Verilerin hazırlanması
- Verilerin uyumlaştırılması
- Düzenli ifadelerin uygulanması
Veri Anlama
- Veri doğrulama
- İstatistiksel veri analizi
Veri koruma, veri güvenliği
ETL rotalarının pratik yapısı
Data Vault 2.0, temeller, merkezler, bağlantılar, uydular, hash anahtarı, hash diff.
Data Vault veri modellemesi
Bir Veri Kasası modelinin pratik yapısı - Ham Kasa, hash prosedürlerinin pratik uygulaması
Proje çalışması (yaklaşık 5 gün)
Öğrenilen içeriği pekiştirmek için
Proje sonuçlarının sunumu
Veri analitiği
Veri analizine giriş (yaklaşık 1 gün)
CRISP-DM referans modeli
Veri analitiği iş akışları
Yapay zeka, makine öğrenimi, derin öğrenmenin tanımı
Veri mühendisleri, veri bilimcileri ve veri analistleri şirketindeki gereksinimler ve rol
Python temellerinin gözden geçirilmesi (yaklaşık 1 gün)
veri türleri
Fonksiyonlar
Veri analizi (yaklaşık 3 gün)
Veri analitiği bağlamında merkezi Python modülleri (NumPy, Pandas)
Veri hazırlama süreci
Python'da veri madenciliği algoritmaları
İş sürecinde yapay zeka (AI)
Belirli yapay zeka teknolojilerinin sunumu
ve profesyonel ortamdaki olası uygulamalar
Veri görselleştirme (yaklaşık 3 gün)
Keşifsel veri analizi
içgörüler
Veri kalitesi
Fayda analizi
Python ile Görselleştirme: Matplotlib, Seaborn, Plotly Express
Veri hikayesi anlatımı
Veri yönetimi (yaklaşık 2 gün)
Büyük veri mimarileri
SQL ile ilişkisel veritabanları
SQL ve NoSQL veritabanlarının karşılaştırılması
İş Zekası
Veri analizi bağlamında veri koruma
Büyük veri bağlamında veri analizi (yaklaşık 1 gün)
MapReduce yaklaşımı
Kıvılcım
NoSQL
Gösterge Tabloları (yaklaşık 3 gün)
Kütüphane: Dash
Gösterge tablolarının yapısı - Gösterge bileşenleri
Gösterge tablolarını özelleştirme
Geri aramalar
Metin Madenciliği (yaklaşık 1 gün)
Veri ön işleme
Görselleştirme
Kütüphane: SpaCy
Proje çalışması (yaklaşık 5 gün)
Öğrenilen içeriği pekiştirmek için
Proje sonuçlarının sunumu
Büyük Veri Uzmanı
Büyük Veri Nedir? (yaklaşık 1 gün)
Hacim, Hız, Çeşitlilik, Değer, Doğruluk
Büyük miktarda verinin fırsatları ve riskleri
Farklılaşma: iş zekası, veri analitiği, veri bilimi
Veri madenciliği nedir?
Apache Çerçevelerine Giriş (yaklaşık 2 gün)
Bulutta büyük veri çözümleri
Veri erişim modelleri
Veri depolama
MapReduce (yaklaşık 3 gün)
MapReduce felsefesi
Hadoop Kümesi
MapReduce işlerinin zincirlenmesi
İş sürecinde yapay zeka (AI)
Belirli yapay zeka teknolojilerinin sunumu
ve profesyonel ortamdaki olası uygulamalar
Bileşenler (yaklaşık 3 gün)
Çeşitli araçların kısa sunumu
Veri aktarımı
YARN uygulamaları
Hadoop JAVA API
Apache Spark
NoSQL ve HBase (yaklaşık 3 gün)
CAP teoremi
ASİT ve BAZ
Veritabanı türleri
HBase
Büyük Veri Görselleştirme (yaklaşık 3 gün)
Görselleştirme teorileri
Diyagram seçimi
Yeni tip diyagramlar
Veri görselleştirme araçları
Proje çalışması (yaklaşık 5 gün)
Öğrenilen içeriği pekiştirmek için
Proje sonuçlarının sunumu
Değişiklikler mümkündür. Kurs içeriği düzenli olarak güncellenmektedir.
Verilerin birleştirilmesi, hazırlanması, zenginleştirilmesi ve iletilmesiyle ilgili süreçlerde ustalaştınız ve temel Python programlama, SQL ve NoSQL veritabanı kavramlarını kullanarak büyük veri analizlerini anladınız. Büyük, yapılandırılmamış verileri işlemek ve yapılandırmak ve görselleştirmek için sektöre özgü yazılım bilgisi bilginizi tamamlar.
Bu kurstan sonra, istatistiğin temellerini anlayacak, verileri işleyebilecek ve değerlendirebilecek ve istatistiksel veri analizlerini ve sonuçlarını grafikler kullanarak sunabilecek, açıklayabilecek ve yorumlayabileceksiniz.
Kurs, bilgisayar bilimleri, işletme enformatiği, işletme, matematik veya benzer bir yeterlilik derecesine sahip kişilere yöneliktir.
Veri hacimlerinin sistematik bir şekilde değerlendirilmesi, şirketler için kendi ürünleri ve müşteri davranışları hakkında bilgi üretmek için çok önemlidir. Bu çerçevede, büyük veri analistleri tüm sektörlerde giderek daha fazla talep görmektedir.
Sağlam bir istatistik bilgisi, endüstriyel araştırma ve geliştirme, ilaç geliştirme, tıbbi çalışmaların denetlenmesi, finans ve sigorta, bilgi teknolojisi veya kamu yönetimi alanlarında büyük talep gören değerli bir ek niteliktir.Anlamlı sertifikanız, edindiğiniz nitelikler hakkında ayrıntılı bir fikir verir ve kariyer beklentilerinizi geliştirir.
Didaktik kavram
Eğitmenleriniz hem profesyonel hem de didaktik açıdan son derece kalifiyedir ve size ilk günden son güne kadar ders verecektir (kendi kendine çalışma sistemi yoktur).
Etkili küçük gruplar halinde öğreneceksiniz. Kurslar genellikle 6 ila 25 katılımcıdan oluşmaktadır. Genel dersler, tüm kurs modüllerinde çok sayıda pratik alıştırma ile desteklenmektedir. Uygulama aşaması kursun önemli bir parçasıdır, çünkü bu süre zarfında öğrendiklerinizi işler ve uygulamada güven ve rutin kazanırsınız. Kursun son bölümü bir proje, bir vaka çalışması veya bir final sınavını içerir.
Sanal sınıf alfaview®
BildungszentrumDersler, modern alfaview® video teknolojisi kullanılarak kendi evinizin rahatlığında ya da 'deki tesislerimizde gerçekleştirilir. Tüm kursiyerler alfaview® aracılığıyla birbirlerini yüz yüze görebilir, birbirleriyle dudak senkronize ses kalitesinde iletişim kurabilir ve ortak projeler üzerinde çalışabilir. Elbette, bağlı eğitmenlerinizi de istediğiniz zaman canlı olarak görebilir ve onlarla konuşabilirsiniz ve kursun tüm süresi boyunca eğitmenleriniz tarafından gerçek zamanlı olarak eğitileceksiniz. Dersler e-öğrenme değil, video teknolojisi aracılığıyla gerçek canlı yüz yüze öğretimdir.
alfatraining Agentur für Arbeit Eğitim kursları, AZAV onay yönetmeliğine uygun olarak sübvanse edilmekte ve sertifikalandırılmaktadır. Bildungsgutschein Aktivierungs- und VermittlungsgutscheinKurs başvurusunda bulunduğunuzda, kurs masraflarının tamamı genellikle finansman kuruluşunuz tarafından karşılanır.
Europäischen Sozialfonds Deutsche Rentenversicherung (ESF), (DRV) veya bölgesel finansman programları aracılığıyla da finansman mümkündür. Berufsförderungsdienst Düzenli bir asker olarak, (BFD) aracılığıyla daha fazla eğitim kursuna katılmak mümkündür. Agentur für Arbeit (Qualifizierungschancengesetz) Şirketler de çalışanlarını (BFD) tarafından sağlanan bir finansman programı aracılığıyla kalifiye hale getirebilirler.