data science, studia podyplomowe big data, business intelligence studia podyplomowe, analiza danych studia podyplomowe

Data Science i Big Data w zarządzaniu

Poziom
Studia podyplomowe
Czas trwania
1 rok
Język
PL
Uzyskany tytuł
Świadectwo ukończenia studiów podyplomowych
Tryb
Tryb niestacjonarny
Broszura
Kontakt

O kierunku

W przypadku obostrzeń epidemicznych jesteśmy przygotowani do realizacji zajęć w formule online.

Celem studiów jest dostarczenie kadrze managerskiej holistycznego spojrzenia na całość zagadnień związanych z Big Data i Data Science oraz praktycznych kompetencji w wykorzystaniu ich w kierowaniu działem lub przedsiębiorstwem, a w szczególności wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data.

 

Atuty kierunku

1
Konkretne umiejętności

W ramach każdego przedmiotu rozwijane jest spektrum umiejętności: od tych związanych z rozumieniem analizy danych przez kompetencje projektowe po umiejętności myślenia w kategoriach strategicznych. Podsumowaniem wykorzystania tych umiejętności jest praca dyplomowa.

2
Big Data i Data Science

Program przygotowany przez zespół praktyków wywodzących się z biznesu, odzwierciedla aktualne trendy w obszarze Big Data i Data Science. 

3
Unikatowość

Jedyne studia dla managerów łączące zrozumienie tematyki związanej z rozwiązaniami DS i BD oraz praktyczne know how jak przeprowadzać transformację w zarządzaniu opartym o nowoczesne rozwiązania technologiczne.

4
Praktyka przed teorią

Prezentujemy rozwiązania biznesowe, przekazujemy dobre praktyki oraz przykłady ich zastosowań w organizacjach, program studiów i dobór tematyki zbudowany na podstawie doświadczeń wyniesionych z biznesu.

5
Zajęcia z praktykami

Wszyscy wykładowcy poza doświadczeniem akademickim na co dzień związani są z projektami komercyjnymi, to połączenie daje dostęp do eksperckiej wiedzy i praktycznego know-how.

Partner merytoryczny

Strefa wiedzy

Adresaci studiów

Studia szczególnie polecamy: 

Średniej i wyższej kadrze managerskiej z co najmniej 3 letnim łącznym stażem zawodowym,  pełniącej swoje funkcje m.in. (ale nie wyłącznie) w obszarach:

  • marketingu,
  • finansów,
  • IT,
  • zarządzania łańcuchem produkcji,
  • HR,
  • zarządzanie strategiczne. 

Odwiedź stronę studiów pod adresem: www.zarzadzanie.ai i dowiedz się więcej szczegółów.

Przeczytaj artykuł o Data Science i Big Data w Zarządzaniu

Illustration

Kierownik studiów

Marcin Choiński
Marcin Choiński

Pasjonat danych, zarządzania nimi, rozwijania kultury orgnizacyjnej w oparciu o dane oraz budowania na nich wartości biznesowej. Posiada kilkunastoletnie doświadczenie w tworzeniu i wdrażaniu rozwiązań w obszarze Data Management i Data Governance.  

Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Od początku kariery zajmował się Hurtowniami Danych i BI, a następnie również MDM, Big Data, Data Science oraz Analityką Biznesową. Pracował jako konsultant m. in. dla globalnych i regionalnych korporacji z branży farmaceutycznej, telekomunikacyjnej i handlowej. Obecnie w TVN S.A. odpowiedzialny za budowę i wdrażanie strategii danych oraz rozwój ekosystemu analitycznego Big Data i Data Science. Uprzednio również założyciel i redaktor naczelny portalu BI.PL, gościnnie wykładowca na kilku warszawskich uczelniach, trener, główny analityk danych w zespole futbolu amerykańskiego Warsaw Eagles. Hobbystycznie buduje modele analityczne w obszarze sportu albo wędkuje. 

Korzyści dla słuchaczy - co zyskujesz

DZIĘKI UDZIAŁOWI W STUDIACH PODYPLOMOWYCH

Uczestnicy zdobędą wiedzę na temat analizy danych w oparciu o zaawansowane metody Data Science, a także umiejętności ich wykorzystywania w podejmowaniu skuteczniejszych decyzji biznesowych. Poznają także konkretne narzędzia BI i wizualizacji danych. Uczestnicy dowiedzą się jak zaplanować i skutecznie zrealizować transformację przedsiębiorstwa w przedsiębiorstwo oparte na danych (data-driven business), a także jak zorganizować i zarządzać niezbędną infrastrukturą. DZIĘKI TEMU ZDOBĘDZIESZ KOMPETENCJE, ABY:

  • skutecznie prowadzić projekty o charakterze BigData i Data Science 

  • skutecznie przeprowadzić transformację przedsiębiorstwa/działu w stronę przedsiębiorstwa opartego o analizę danych 

  • organizować i zarządzać infrastrukturą Big Data i Data Science 

  • wykorzystać wyniki analizy danych w zarządzaniu przedsiębiorstwem 

W TRAKCIE STUDIÓW POZNASZ: 

  • w jaki sposób Big Data i Data Science zmieniają współczesne organizacje 

  • metody statystyczne i ich zastosowania w analizie danych 

  • zastosowanie metod Data Science w analizie danych, proces analizy danych, jego etapy 

  • różnice w podejściach opartych na statystyce i na metodach uczenia maszynowego 

  • sposoby konstrukcji zespołów Data Science / Big Data, ich relacje do innych zespołów i rolę managera w zespole Data Science 

  • kryteria sukcesu projektu Data Science / Big Data 

  • strategie zarządzania danymi oraz zagrożenia związane z ich bezpieczeństwem 

  • wybrane dostępne na rynku narzędzia do wizualizacji danych i narzędzia Business Intelligence i ich zastosowanie w przedsiębiorstwie 

  • rozwiązania i platformy technologiczne związane z Big Data 

PO STUDIACH UCZESTNIK BĘDZIE POTRAFIĆ: 

  • konstruować i mierzyć modele 

  • rozpoznawać czy na podstawie zestawu danych można uzyskać odpowiedź na zadane pytanie 

  • posługiwać się narzędziami do analizy danych 

  • posługiwać się wybranymi narzędziami do wizualizacji danych i narzędziami Business Intelligence 

  • zaprezentować wyniki analizy danych 

  • szacować koszty związane z realizacja projektu Big Data i utrzymaniu infrastruktury Big Data 

  • ustanowić politykę bezpieczeństwa danych 

  • ustanowić politykę zarządzania danymi 

Program

WPROWADZENIE DO BIG DATA I DATA SCIENCE

  • Wprowadzenia do tematyki wdrażania i realizacji projektów Big Data / Data Science w organizacji.  
  • Wprowadzenie do tematyki analizy danych (data science) i uczenia maszynowego (machine learning) w przedsiębiorstwie. 
  • Wprowadzenie do technologii analizy dużych danych (big data) w przedsiębiorstwie.

STATYSTYKA

  • Metody opisu struktury zbiorowości jednowymiarowych.  
  • Metody loasowego i nielosowego doboru próby. 
  • Zmienna losowa.  
  • Teoria estymacji.  
  • Testowanie hipotez statystycznych.  
  • Metody analizy współzależności zjawisk.  
  • Funkcja regresji liniowej. 
  • Funkcja regresji logistycznej.

PODEJMOWANIE DECYZJI W OPARCIU O DANE: METODY

  • Sztuczna inteligencja (AI) vs Machine learning. 
  • Przygotowanie danych - analiza zmiennych, analiza braków danych, feature engineering 
  • Overfitting vs underfitting oraz Bias-Variance Trade-off - o co chodzi i jak temu zaradzić? 
  • Przekleństwo wielowymiarowości (Curse of dimensionality) - skąd się to bierze, dlaczego jest to problem i jak go zminimalizować? 
  • Modele nadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia 
  • Tuning i interpretowalność modeli 
  • Ewaluacja modeli - wyjaśnienie czym i po co są zbiory treningowy, walidacyjny, testowy, do czego służy walidacja krzyżowa (cross-validation) oraz jak oceniać modele 
  • Modele nienadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia 
  • Metody redukcji wymiarów i reprezentacji danych 
  • Text mining - klasyczne podejście, z czym to się je, co to jest NLP, dlaczego język naturalny jest taki trudny dla “maszyny” 
  • Wprowadzenie do Deep Learning - co w nim takiego wyjątkowego, przykłady użycia, nowe problemy, nowa struktura projektu, omówienie krótko różnych architektur typu CNN, RNN i ich odmian 
  • Deep learning w NLP - co się zmieniło względem podejścia klasycznego 
  • Wizja komputerowa (Computer Vision) z wykorzystaniem Deep learningu - case study, jak zbudować prostą wyszukiwarkę/rekomender podobnych obrazów 

PODEJMOWANIE DECYZJI W OPARCIU O DANE: NARZĘDZIA WIZUALIZACJI I BUSINESS INTELLIGENCE

  • Podstawy hurtowni danych 
  • Wizualizacja danych 
  • Charakterystyka narzędzi BI 
  • Cechy wyróżniające wybrane narzędzia BI 

WARSZTAT POWER BI:

  • Wprowadzenie do usług i oprogramowania desktopowego 
  • [Warsztat Power BI] Pobieranie danych z plików, lokalnych baz danych oraz usług chmurowych 
  • [Warsztat Power BI] Transformacje danych 
  • [Warsztat Power BI] Model raportowy 
  • [Warsztat Power BI] Tworzenie raportów i kokpitów 
  • [Warsztat Power BI] Rozwiązania hybrydowe (dane w serwerowni, raport w chmurze) 
  • [Warsztat Power BI] Skalowanie, integracja z usługami Azure, narzędzia dodatkowe 

BigData - STRATEGIA, WDROŻENIE, TRANSFORMACJA PRZEDSIĘBIORSTWA

  • Podstawowe pojęcia i definicje w obszarze. 
  • Rola danych, jako strategicznego zasobu organizacji. 
  • Rola i wyzwania dla CDO. 
  • Metodyka strategicznego podejścia do zarządzania danymi. 
  • Definiowanie i wdrażanie Strategii Danych. 
  • Wielowymiarowa perspektywa Data Management / Data Governance w organizacji. 
  • Modele oceny zaawansowania analitycznego organizacji. 
  • Modele oceny dojrzałości Data Management / Data Governance 
  • Wprowadzenie do DAMA oraz innych frameworków Data Management / Data Governance 
  • Architektury danych oraz Modelowanie danych. 
  • Metodyka zarządzania i realizacji projektów i programów w obszarze danych. 
  • Charakterystyka rozwiązań Hurtowni Danych/BI, Data Lake, Big Data i Data Science 
  • Struktura organizacyjna oraz kluczowe role w obszarze Data Management. 
  • Zarządzanie zmianą kulturową w obszarze danych w organizacji. 
  • Rozwiązania dostępne w chmurze 
  • Zastosowania oprogramowania Open Source 

INFRASTRUKTURA BIG DATA I ZARZĄDZANIE DANYMI

  • Budowa systemów do przetwarzania dużych zbiorów danych 
  • Planowanie infrastruktury 
  • Architektura lambda i kappa 
  • Skalowalność systemów 
  • Przechowywanie danych 
  • SQL i NoSQL w świecie Big Data 
  • Modelowanie danych 
  • Sposoby przetwarzania danych 
  • Zastosowania czasu rzeczywistego 
  • Przetwarzanie strumieniowe danych 
  • Integracja systemów 
  • Przetwarzanie i składowanie danych w chmurze publicznej 
  • Strategia Multicloud 
  • Integracja środowiska on premise z środowiskiem chmury publicznej 
  • Rozwiązania chmurowe niezależne od dostawcy infrastruktury 

PYTHON W ANALIZIE DANYCH

  • Środowisko pracy i wprowadzenie do programowania. 
  • Podstawy programowania w języku Python (w tym: typy danych, instrukcję sterujące funkcje). 
  • Przetwarzanie danych tabelarycznych w bibliotece pandas (selekcja danych względem zadanych kryteriów, transformacje danych, agregowanie) 
  • Wczytywanie i zapis danych w formatach typowych dla programu Excel. 
  • Podstawowe instrukcje do wizualizacji danych 
  • Połączenie z bazą danych SQL z poziomu Python 
  • Wykorzystanie uczenia maszynowego w języku Python (uczenie i ewaluacja modelu predykcyjnego) 
  • Zapisywanie, wczytywanie i zastosowanie zbudowanych modeli. 

ZAGADNIENIA BEZPIECZEŃSTW DANYCH

  • Podstawowe usługi ochrony informacji 
  • Wybrane techniki ochrony informacji 
  • Podstawy prawne ochrony informacji 
  • Modele bezpieczeństwa systemów 
  • Polityka bezpieczeństwa 
  • Metody oceny bezpieczeństwa systemów 
  • Ochrona informacji w bazach danych 
  • Przetwarzanie danych osobowych i wrażliwych 
  • Blockchain jako rozproszona baza danych 

STUDIUM PRZYPADKU  SEMINARIUM PROJEKTOWE 

Całkowita liczba godzin dydaktycznych: 218 *    

(razem z zaliczeniami). 

* jedna godzina dydaktyczna= 45 minut 

GroupOfPeopleIllustration

Organizacja zajęć

Studia trwają dwa semestry   Zajęcia odbywają się raz lub dwa razy w miesiącu, w sesjach dwudniowych: 

  • soboty- 8.45 - 15:45  

  • niedziele- 8.45 - 15.45 

Terminy zjazdów na I semestr:

1)    6-7. 11.2021  2)    20-21.11.2021 3)    4-5.12.2021 4)    18-19.12.2021 5)    15-16.01.2022 6)    5-6.02.2022 7)    26-27.02.2022

Społeczność

Wiodący wykładowcy

Hubert Kobierzewski

Pracuje w firmie Codec jako BI Practice Lead, w której pomaga klientom zebrać ich dane oraz przekonwertować je w wartościowe informacje. Od lat związany z tematyką szeroko rozumianych rozwiązań Business Intelligence – od integracji, jakości danych, hurtowni danych, po zaawansowane systemy analityczne i raportowe. Realizował projekty dla wielu film w Polsce, Irlandii, UK, czy Szwajcarii. Poza pracą Hubert prowadzi dwie grupy społecznościowe: warszawski oddział Data Community Poland oraz Warsaw Power BI User Group. 

Jakub Nowacki
dr Jakub Nowacki

Absolwent Politechniki Gdańskiej oraz Uniwersytetu Bristolskiego, gdzie obronił doktorat z matematyki stosowanej. Na co dzień łączy umiejętności analityczne i programistyczne jako Data Scientist. Doświadczenie zdobywał oraz prowadził zespoły w działach badań i rozwoju w wielu firmach w branży wysokich technologii, mediów, farmaceutycznych oraz petrochemicznych. Najbardziej interesuje się rozproszonym przetwarzaniem i analizą dużych zbiorów danych wspomagające decyzje w biznesie i w badaniach, oraz automatyzujące procesy w przedsiębiorstwach. Pracował zarówno z technologiami dojrzałymi, jak i nie boi się wyzwań w pracy z najnowszymi rozwiązaniami. Zwolennik pragmatycznego użycia technologii w biznesie. Prelegent na wielu konferencjach poświęconych tematyce Big Data. Trener szkoleń technologicznych z zakresu Big Data współpracujący z Sages. Lead Data Scientist w firmie Sigdelta. Od 2016 roku dzieli się zdobytą wiedzą jako wykładowca na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską. 

Dominik Batorski
dr Dominik Batorski

Socjolog i data scientist łączący pracę naukową w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim z działalnością doradczą i biznesową. Ma kilkunastoletnie doświadczenie w analizie dużych danych, przede wszystkim zbieranych przez serwisy internetowe i firmy telekomunikacyjne, m.in. zakładał i do 2010 rozwijał dział business intelligence w Gadu-Gadu. Jest współtwórcą Sotrender’a firmy tworzącej narzędzia analityczne do monitoringu i optymalizacji marketingu w mediach społecznościowych w oparciu o dane. Od 2014 roku organizuje comiesięczne spotkania Warsaw Data Science Meetup, które służą wymianie wiedzy i integracji społeczności około 3tys. osób zajmujących się pracą z danymi.  
Naukowo zajmuje się m.in. badaniem zmian społecznych i gospodarczych związanych z upowszechnieniem technologii informacyjno-komunikacyjnych, a także sposobów korzystania z technologii i zachowań użytkowników. Jest współautorem badań Diagnoza społeczna. Specjalizuje się również w badaniach sieci społecznych, oraz procesów zachodzących w sieciach, takich jak dyfuzja innowacji czy wpływ społeczny.  
Posiada wieloletnie doświadczenie w doradzaniu jednostkom administracji rządowej i samorządowej, kierował przygotowywaniem kilkunastu opracowań analitycznych i ekspertyz oraz uczestniczył w tworzeniu Strategii i Programów Operacyjnych. Obecnie jest członkiem Rady ds. Cyfryzacji przy Ministrze Cyfryzacji. 

Piotr Nazimek
dr Piotr Nazimek

Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w 2012 roku obronił doktorat z obszaru niezawodności systemów komputerowych. Zakres jego zainteresowań obejmuje szeroko pojęte bezpieczeństwo oraz inżynierię oprogramowania. Zajmuje się projektowaniem, implementacją oraz weryfikacją zabezpieczeń, głównie w projektach systemów transportowych i kontroli dostępu. Prowadzi szkolenia z zakresu praktycznego stosowania kryptografii w systemach komputerowych. Od 2016 roku jest wykładowcą na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską. 

Liliana Pięta
Liliana Pięta

Absolwentka kierunku informatyka i ekonometria na Uniwersytecie Ekonomicznym w Krakowie z kilkuletnim doświadczeniem w analizie danych i obszarze data science. Od początku pracy zawodowej związana z branżą mediową i e-commerce, początkowo pracowała jak analityk danych w Onecie, potem w firmie konsultingowej McKinsey jako analityk statystyczny pomagając niemieckim klientom w transformacjach w obszarze marketingu i sprzedaży. Aktualnie jako Data Scientist w Allegro - największej platformie ecommerce w Polsce - pracuje głównie w obszarze testów A/B, przetwarzania obrazów i tekstu. Prowadzi również zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki PW. W wolnym czasie wspina się po górach i zwiedza świat. 

Norbert Ryciak
Norbert Ryciak

Absolwent matematyki ze specjalizacją w obszarze statystyki i analizy danych na Politechnice Warszawskiej, gdzie aktualnie pracuje nad doktoratem. W ramach doktoratu prowadzi badania nad metodami głębokiego uczenia w zastosowaniu do analizy tekstu. Współpracował z Instytutem Podstaw Informatyki Polskiej Akademii Nauk w rozwijaniu narzędzi do analizy wydźwięku opinii, a obecnie zajmuje się tworzeniem sieci neuronowych do analizy składniowej tekstu. Lubi dzielić się wiedzą prowadząc zajęcia z tematów z obszaru data science na Politechnice, a także warsztaty i szkolenia komercyjne z uczenia maszynowego i deep learningu. 

Rafał Wojdan
Rafał Wojdan

Obecnie na stanowisku Head of AI w Sotrender realizuje projekty związane z zastosowaniem modeli predykcyjnych, NLP i Computer Vision w mediach społecznościowych. Wcześniej swoje doświadczenie zdobywał w takich firmach jak Groupon, SAS Institute czy Allegro, a dyplomy uzyskał na kierunkach Metody Ilościowe w Ekonomii i Systemy Informacyjne w Szkole Głównej Handlowej w Warszawie oraz International Management na Tilburg University w Holandii

Edukuje, gdy tylko może, na tech talkach, konferencjach czy studiach podyplomowych. Regularnie prowadzi zajęcia na Politechnice Warszawskiej i Akademii Leona Koźmińskiego. Od czasu do czasu prowadzi warsztaty jako trener Machine Learningu i członek zespołu Data Science w Sages.

W. Gawronski
Wojciech Gawroński

Współzałożyciel firmy Pattern Match, gdzie pracuje jako architekt systemów IT opartych o rozwiązania chmurowe. Specjalista od chmury Amazon Web Services (8 certyfikatów, pracuje z nią od 2015 roku), uhonorowany tytułem AWS Community Builder. Na co dzień pracuje z klientami z Polski, Europy Zachodniej (Niemcy, Wielka Brytania, Francja i Holandia) i Stanów Zjednoczonych przy wdrożeniach rozwiązań opartych o rozwiązania chmury publicznej, prywatnej i hybrydowej. Programista i architekt systemów rozproszonych z 12-letnim doświadczeniem (Erlang, Java, Python). Absolwent Politechniki Śląskiej oraz studiów podyplomowych Wyższej Szkoły Bankowej w Poznaniu na kierunku Lean Management.

 

Zasady naboru

O przyjęciu decyduje kolejność zgłoszeń. 

VII edycja - rekrutacja trwa do 15 lutego 2022 roku, planowany termin rozpoczęcia studiów to marzec 2022 roku.

 

Warunki ukończenia studiów

Warunkiem ukończenia jest zaliczenie wszystkich przedmiotów oraz napisanie i obrona pracy końcowej indywidualnej.

W ramach projektu student przedstawia case organizacji, która ma do zrealizowania strategiczny cel biznesowy. Realizacja celu wymaga wykorzystania kompetencji z obszaru danych i analityki, których w danym momencie organizacja nie posiada. Celem może być eliminacja istniejących problemów (optymalizacja działania operacyjnego), albo innowacja.

Student, wykorzystując zdobytą w ramach studiów wiedzę, ma za zadanie przedstawić kompleksową i wielowymiarową analizę sytuacji organizacji oraz zaplanować jej transformację. Student powinien wykazać się zarówno podejściem holistycznym do analizy problemu, zdefiniowaniem odpowiedniej Strategii Danych wspierającej postawiony cel strategiczny, jak i szczegółowym zaplanowaniem jej wdrożenia, transformacji organizacji oraz zaprojektowaniem konkretnych rozwiązań do implementacji (modele predykcyjne, analizy, raporty, wizualizacje, itp.).

Wymagane dokumenty
  • odpis dyplomu ukończenia studiów wyższych (tytuł zawodowy: licencjat, inżynier, lekarz, magister)** 

  • zdjęcie elektroniczne w formacie JPG 

  • oryginał dokumentu tożsamości do wglądu 

  • kopia dowodu wpłaty wpisowego 

  • CV 

 

**W przypadku kandydatów posiadających dyplom zagraniczny, i chcących kontynuować naukę w Polsce na poziomie podyplomowym, istnieją odrębne przepisy dotyczące uznawania dyplomów ukończenia studiów wyższych, wydanych w innych krajach.

Sprawdź szczegóły, aby dowiedzieć się, czy Twój zagraniczny dyplom wymaga dodatkowego procesu uznawania (nostryfikacji), aby umożliwić Ci rozpoczęcie studiów podyplomowych / MBA w Polsce: kliknij TU

Etapy rekrutacji
1
Uzyskanie podstawowych informacji

Prosimy o zapoznanie się z opisem interesującego Państwa kierunku i sprawdzenie zasad naboru.

 

2
Rejestracja

Pierwszą czynnością w procesie rekrutacji jest wypełnienie formularza zgłoszeniowego, który dostępny jest na stronie internetowej uczelni.

Rekrutacja online

3
Opłata rekrutacyjna

Opłatę rekrutacyjną należy uiścić na konto uczelni lub skorzystać z funkcji płatności.pl podczas wypełniania formularza zgłoszeniowego.

Pastuszka Agnieszka
Masz pytania? Zapraszamy do kontaktu
Agnieszka Szczepańczyk

Opłaty

Tabela opłat
Wpisowe 250 zł
Cena podstawowa (płatność w dwóch ratach po 6 400 zł każda) 12 800 zł
Cena ze zniżką dla absolwentów ALK (płatność w dwóch ratach po 5 760 zł każda ) 11 520 zł
Cena ze zniżką za jednorazową płatność (Oferowane zniżki (zniżka dla absolwentów, zniżka za jednorazową płatność i ewentualne dodatkowe zniżki) nie kumulują się.) 12 500 zł

Konto bankowe, na które można dokonywać wpłaty wpisowego:  Akademia Leona Koźmińskiego   03-301 Warszawa, ul. Jagiellońska 57/59   BANK PEKAO SA w Warszawie 20 1240 1024 1111 0010 1646 0637  

Opłaty za studia wnoszone są na indywidualny numer konta, podawany po zakończeniu rekrutacji. 

Osoby zainteresowane otrzymaniem faktury proszone są o kontakt z Panią Agnieszką Fabiańską e-mail agaf@kozminski.edu.pl

Uprzejmie informujemy, że w przypadku zbyt małej liczby kandydatów grupa może nie zostać uruchomiona.