Pytech Summit 2023 (online) Winter Edition to V. edycja największej polskiej konferencji poświęconej Pythonowi. Wydarzenie odbywa się w dniu 7.12.2023 roku w formie transmisji online. Skierowane jest do pasjonatów Pythona z profilu mid i senior. Konferencja zapewnia najwyższy poziom wykładów prowadzonych przez topowe postaci z polskiego świata Python oraz przedstawicieli wiodących firm, zajmujących się Python w Polsce. Podczas konferencji na swoich wirtualnych stoiskach zaprezentują się jedynie uznane i innowacyjne firmy informatyczne, których obecność zwiększa rangę wydarzenia.
W trakcie trwania konferencji odbędą się Wirtualne Targi Pracy Python, na których interaktywnie nawiążesz kontakt z firmami.
W dniu 7.12.2023 roku wygodnie ze swojego domu lub biura możesz w pełni bezpłatnie uczestniczyć w największym cyfrowym wydarzeniu poświęconym Python w Polsce.
Przekonaj się dlaczego warto odwiedzić naszą konferencję. Sprawdź, jaką tematykę poruszamy podczas wyjątkowych prelekcji.
Jesteśmy największą konferencją online dotyczącą języka programowania PYTHON. W żadnym innym miejscu w sieci nie spotkasz tylu specjalistów jednego dnia!
Jedyne w swoim rodzaju targi pracy z ofertami dla różnej klasy specjalistów. Nie tylko specjalizujących się w PYTHON.
Najwybitniejsi prelegenci z Polskiej sceny programowania. Poznaj ich metody na sukces w IT!
Dołącz do nas - największego cyfrowego wydarzeniu o technologii PYTHON w Polsce!
Jest to największe wydarzenie tego typu w Polsce. Ponad 3 ścieżki tematyczne jednego dnia!
Na największej konferencji online dotyczącej języka programowania PYTHON nie mogło zabraknąć największych (może najlepszych?) specjalistów! Sprawdź PRZECINEK kto dla Ciebie wystąpi już 12.09.2023!
AI Rockstar
Technology Rockstar
Python Rockstar
AI Rockstar
AI Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Python Rockstar
Kwantyzacja to proces zamiany wartości ciągłych na skończony zbiór wartości dyskretnych. Jest to skuteczna technika, która znacząco redukuje zapotrzebowanie na pamięć i moc obliczeniową sieci neuronowych, czyniąc je bardziej wydajnymi i łatwiejszymi do wdrożenia na urządzeniach o ograniczonych zasobach. W tej prezentacji poznamy różne rodzaje kwantyzacji i omówimy, w jaki sposób można je zastosować do modeli Deep Learningowych. Ponadto, zapoznamy się z podstawami OpenVINO Toolkit i NNCF, obserwując, jak współdziałają, aby osiągnąć niezłą wydajność - wszystko w notatniku Jupyter, co pozwoli na przetestowanie tego w domu.
Wiele osób pracujących w IT słysząc zwrot "marka osobista" wyobraża sobie celebrytów znanych z tego, że są znani, internetowych guru od spraw wszelakich czy wyśmiewanych coachów wmawiających nam, że jesteśmy zwycięzcami. Pora to odczarować! Silna marka osobista programisty może służyć do powiększania wpływu na firmę/projekt, polepszania pozycji na rynku pracy czy zarabiania na swojej wiedzy. Pytanie tylko jak ją zbudować?
Ready to turbocharge your Python projects with valuable data? Join our 45-minute tech talk, where we'll show you how to find the best data. In this session, we'll explore the vast landscape of data sources, ranging from native Python datasets, open datasets, and data APIs to specialized repositories, torrents, and data marketplaces. Additionally, we will discuss various techniques and strategies for obtaining data, such as the European Regional Development Fund, web scraping, and data augmentation.
W trakcie tegorocznej konferencji Build, Microsoft ogłosił rewolucyjne zmiany związane z wprowadzeniem nowego produktu całkowicie zmieniającego podejście do budowy rozwiązań analitycznych na tej platformie. Mowa oczywiście o Microsoft Fabric. Jednym z doświadczeń, które oferuje ten produkt, jest praca w środowisku umożliwiającym wykorzystywanie Sparka do przetwarzania danych. W trakcie sesji przybliżę elementy architektury Microsoft Fabric, które wspierają pracę z danymi z wykorzystaniem Pythona (PySpark).
Modele Generative AI zdecydowanie dominują dyskusję w świecie AI w ostatnim czasie. Popularność zdobyły jednak nie tylko dzięki modelom językowym takim jak GPT-4 czy sam chat ChatGPT, a również dzięki rozwiązaniom skupiającym się na generowaniu obrazów. W ramach sesji dokładniej zapoznamy się z dwoma najpopularniejszymi: DAll-E2, zaproponowanym przez OpenAI oraz MidJourney. Omówione zostaną szczegóły działania modeli i specyfika korzystania z nich z poziomu kodu w Pythonie.
Pydantic to biblioteka do parsowania i walidacji danych spopularyzowana min. przez Fast API. Bogate możliwości konfiguracji i definicji typów pozwalają na skuteczne zastosowanie tej biblioteki nie tylko przy tworzeniu API, ale wszędzie tam gdzie jesteśmy zmuszeni walidować dane dostarczane z zewnątrz. W prezentacji przybliżę możliwości które oferuje Pydantic 2+ i pokażę bardziej zaawansowane możliwości pakietu.
Niebawem.
Podczas prezentacji opowiemy o procesie tworzenia aplikacji z wykorzystaniem głębokich modeli języka w pythonie od początku do końca na przykładzie projektu Chattum - opensourcowej platformy do tworzenia zaawawansownych botów które potrafią korzystać z baz wiedzy i zewnętrznych narzędzi. Poruszymy tematy takie jak, prompt engineering i biblioteki umożliwiające komunikacje z LLMami, wektorowe bazy danych i podłączenie ich do modeli języka, przechowywanie plików i konwersacji a nawet tworzenie frontendu w pełni w pythonie z wykorzystaniem biblioteki reflex.
Utrzymanie aktualnej, jakościowej i łatwodostępnej dokumentacji produktów bywa żmudne i frustrujące. Jest jednak kluczowe, jeśli chcemy ograniczyć czas spędzony na czynnościach supportowych. Docs as Code jest koncepcją, która opisuje jak zarządzać dokumentacją wykorzystując proces obecny w wytwarzaniu kodu produktu. Jedno IDE, jedno repozytorium, jeden pipeline zarówno dla kodu produktu jak i dokumentacji. W prezentacji przedstawię zarówno tytułową koncepcję jak i jej techniczną implementację w aplikacji webowej napisanej w Django.
Po ciężkiej i żmudnej pracy z frameworkami, bazami oraz security każdy programista ma ochotę albo wyjechać w Bieszczady, albo zacząć robić gry. Ja spełnię wasze drugie życzenie - pokażę wam jak bardzo prosto w silniku pyxel można zrobić bardzo proste gry w pixelartowej grafice oraz 8bitowej muzyce na przykładzie prostego space shootera.
Rozwój dużych modeli językowych generuje coraz większe zapotrzebowanie na dane tekstowe, które są wykorzystywane do ich trenowania czy dostrajania. Aby móc wykorzystać takie dane, trzeba je wcześniej pozyskać, odpowiednio przygotować, a następnie udostępnić do użytku. Tak złożony proces wymaga również odpowiednich narzędzi, które umożliwiają jego przeprowadzenie, dlatego skupimy się na przedstawieniu jednego z nich, które powstało w ramach projektu Spichlerz. Pakiet PyPI „Speakleash" w obecnej formie jest nie tylko odpowiedzialny za dostęp do zgromadzonych przez nas zbiorów danych, ale także dostarcza funkcjonalności, które pozwalają na wstępną pracę nad nimi. W naszej prezentacji omówimy realia tworzenia pakietu PyPI, oraz poruszymy wyzwania, z jakimi przyszło nam się zmierzyć. Począwszy od stworzenia pierwszej, funkcjonalnej wersji pakietu, aż po jego kolejne iteracje, które obejmowały kompleksową refaktoryzację, zmiany w architekturze, czy optymalizację wydajności. Na koniec przedstawimy również praktyczne zastosowania oraz funkcjonalności pakietu „Speakleash" w oparciu o dostarczone przez nas datasety.
Podczas naszej prelekcji opowiemy o początkach projektu związanego z budową aplikacji do rozwiązań auto ML, wywodzącego się z konkretnych potrzeb biznesowych. Skupimy się na szczegółowej analizie architektury tej aplikacji oraz wskażemy, dlaczego zdecydowaliśmy się właśnie na platformę Streamlit. Ponadto, zaprezentujemy pełne demo naszego narzędzia, omówimy największe wyzwania, z jakimi zetknęliśmy się podczas procesu developmentu oraz opowiemy o trudnościach związanych z budową frontendu i wdrożeniem. Na zakończenie otworzymy sesję Q&A, gdzie odpowiemy na pytania uczestników.
Databricks to popularne rozwiązanie umożliwiające tworzenie zaawansowanych platform danych. Jedną z jego głównych zalet jest możliwość budowy procesu ETL (Extract, Transform, Load) przy użyciu języków programowania, takich jak Python czy Scala, co pozwala zespołom projektowym na ustalenie dobrych praktyk już na wczesnym etapie rozwoju platformy. Niektóre z nich są opisane na oficjalnym blogu Databricks i są natywnie wspierane przez platformę. Funkcjonalności, takie jak integracja z repozytorium kodu czy możliwość rozwoju kodu w lokalnym środowisku programistycznym (IDE), nie tylko ułatwiają pracę, ale również pozwalają tworzyć niezawodne rozwiązania, oparte na sprawdzonych praktykach z software engineeringu. Na sesji zaprezentuję możliwości, jakie daje rozwijanie kodu dla Databricks w środowisku Visual Studio Code (VS Code). Pokażę przykłady implementacji testów jednostkowych oraz możliwości importowania modułów bez konieczności uruchamiania dodatkowego notebooka. Dzięki tym funkcjonalnościom zespoły projektowe będą mogły szybciej i efektywniej tworzyć, testować i zarządzać swoimi rozwiązaniami opartymi na platformie Databricks.
Wiedza i inspiracja
Konferencje online to doskonałe miejsce do zdobywania nowej wiedzy i inspiracji. Będziesz mieć możliwość wysłuchania prezentacji wybitnych ekspertów w dziedzinie Pythona, którzy podzielą się swoimi doświadczeniami i najlepszymi praktykami. To świetna okazja do nauki nowych technik, nar zędzi i podejść związanych z językiem Python, które mogą pomóc w rozwoju Twoich umiejętności programistycznych.
Sieć kontaktów
Konferencje online są doskonałą okazją do nawiązywania nowych kontaktów zawodowych. Będziesz mieć poznać innych entuzjastów Pythona, programistów, specjalistów i przedstawicieli firm, którzy podzielają Twoje zainteresowania i pasję do tego języka programowania. Możesz wymieniać się doświadczeniami, zadawać pytania, a nawet znaleźć potencjalne możliwości współpracy lub pracy.
Przedstawiamy tegorocznych sponsorów wydarzenia. Jeżeli chcesz do nich dołączyć, skontaktuj się z nami.
PRACY IT
Wirtualne Targi Pracy IT to ogromna szansa na uczestników konferencji na znalezienie nowej pracy oraz dla wystawców na pokazanie się kandydatom z jak najlepszej strony. Na Wirtualnych Targach znajdziesz wirtualne stoiska firmowe, które swoją funkcjonalnością dorównują stoiskom stacjonarnych. Znajdziesz tam wiele możliwość interakcji z wystawcami jak: grupowe video rozmowy z przedstawicielami firmy,indywidualne rozmowy w pokoju rekrutacji, możliwość chatu, rozstawienia CV, kontaktu telefoniczne i nawiązanie relacji przez social media.
PRODUKTÓW
I SZKOLEŃ
Wirtualne Targi Produktów i Usług IT są cyfrową przestrzenią, na której mogą się spotkać klienci IT oraz firmy produkujące oprogramowanie i usługi biznesowe i mieć możliwość zaprezentowania swojej oferty potencjalnym klientom.
Outsourcingu IT
Polska branża IT to w ogromnej mierze outsourcing IT oraz body leasing. Polskie firmy IT dostarczają ekspertów do największych gigantów technologicznych na świecie. Na Wirtualnych Targach Outsourcingu można spotkać ludzi z różnego obszaru biznesu, zarówno tych poszukujących pracowników na wynajem, jak i oferujących swoich specjalistów.
Oto marki medialne które są już z nami! Jeżeli chcesz dołączyć skontaktuj się z nami.
Jeżeli chcesz dołączyć skontaktuj się z nami.
Copyright Pytech Summit 2023 (online) Winter Edition ©2023 All Rights Reserved
AI Software Evangelist w Intelu. Adrian skończył Politechnikę Gdańską na kierunku Informatyka 7 lat temu. Następnie rozpoczął karierę w dziedzinie Computer Vision i Deep Learningu. Jako team leader kilkuosobowego zespołu, Adrian był odpowiedzialny za aplikację umożliwiającą wykonanie profesjonalnego zdjęcia (do dowodu osobistego lub paszportu) bez wychodzenia z domu. Jest współautorem zestawu danych LandCover.ai oraz wykładowcą (od czasu do czasu) w dziedzinie sztucznej inteligencji. Obecnie zajmuje się edukacją innych w temacie narzędzia OpenVINO Toolkit. W wolnym czasie jest podróżnikiem. Można również porozmawiać z nim na temat finansów, a zwłaszcza inwestycji.
W branży IT działam od 2005 roku. Zawodowo zajmuję się rozwojem backendu aplikacji webowych i zarządzaniem działami IT. Dodatkowo prowadzę podcast „Porozmawiajmy o IT” i rozwijam portal z ofertami pracy IT SOLID.Jobs
Ukrainian Software and Artificial Intelligence Engineer living in Poland. Former Software Engineer and Architect at Fortune 500 companies. Core areas: software engineering and cloud computing. Especially interested in platform engineering. A history of success in diverse industry sectors such as manufacturing, healthcare, banking, education, and startups. Former PhD student. Taught Information system design and server-side technologies at the University of Silesia. Public speaker at PyCon PL, PyCon CZ, PyCode, AWS User Group, DataOps Poland, Silesian Artificial Intelligence, Data Science Silesia, Kariera IT.
Jakub Wawrzyniak – CTO @TIDK, Microsoft MVP Data Platform, architekt rozwiązań, koordynuje i odpowiada za jakość projektów realizowanych w obszarze AI, BI, Big Data i zaawansowanej analityki. Specjalizuje się w projektowaniu wydajnych rozwiązań analitycznych w oparciu o chmurę publiczną. Jego doświadczenie i wiedza w zakresie optymalizacji doceniana jest przez największe polskie organizacje. Doktorant, naukowo związany z Zakładem Teorii Algorytmów i Systemów Programowania Instytutu Informatyki Politechniki Poznańskiej. W sektorze IT pracuje od ponad piętnastu lat. Projektant i twórca rozwiązań dla administracji publicznej, programista. Posiada doświadczenie w realizacji międzynarodowych projektów B+R, w tym z ramienia uczelni, dla podmiotów zewnętrznych. Jego zainteresowania naukowe obejmują takie zagadnienia jak projektowanie algorytmów, analiza złożoności obliczeniowej, uczenie maszynowe, optymalizacja kombinatoryczna, czy szeregowanie zadań. Członek Komitetów Organizacyjnych konferencji Game Industry Conference oraz Applied Data Science. Członek Polskiego Towarzystwa Badania Gier.
Big Data & AI Solutions Architect w TIDK, gdzie w świetnym towarzystwie zajmujemy się wdrażaniem rozwiązań opartych na sztucznej inteligencji. Aktualnie jestem w trakcie doktoratu wdrożeniowego na Politechnice Poznańskiej, gdzie skupiam się na modelach prognozowania szeregów czasowych oraz detekcji anomalii. W pracy korzystam z rozwiązań chmurowych, w których kompetencje potwierdzają zdobyte przeze mnie certyfikaty zarówno z obszaru MS Azure jak i GCP. Fan piłki nożnej oraz sportu w każdej postaci.
Od wielu lat jestem związany z Pythonem, miałem przyjemność prowadzić meetupy w Trójmieście związane z tą technologią (PyGda, PyData Trójmiasto). Swoje zawodowe doświadczenia zbierałem zarówno w dużych korporacjach jak i startupach. W wolnym czasie podróżuję, zgłębiam wiedzę z zakresu elektroniki analogowej i szeroko pojętego programowania oraz słucham gitarowego jazzu.
10 lat z Pythonem to wspaniała przygoda, nieważne czy musiałem naprawić błąd na wczoraj, czy zaprojektować zaawansowany i wydajny system, Python nigdy mnie nie zawiódł! Uwielbiam optymalizację kodu i złożone problemy. Ostatnio interesują mnie także aspekty organizacyjne i psychologiczne w wytwarzaniu oprogramowania. Świeżo upieczony tata, fan fantasy oraz sci-fi, gracz, budowniczy LEGO i wiele innych.
Karierę zawodową rozpocząłem jako projektant mostów. I właśnie w tej branży zacząłem tworzyć pierwsze skrypty i aplikacje do automatyzacji prostych zadań i procesów. Gdy zadania programistyczne stanowiły już znaczną część mojej pracy, postanowiłem rozwijać się dalej właśnie w tym kierunku. Od 3 lat pracuję jako Backend Python Developer, tworząc aplikacje webowe z wykorzystaniem rozwiązań chmurowych.
Programista ze ślůńska z 10 letnim doświadczeniem w Pythonie, JS oraz frontendzie, od 2 lat w C++. Hobbystycznie ML oraz elektronika, były skarbnik Hackerspace Silesia oraz co-organizator Coding Dojo Silesia. Prywatnie prowadzę fanpage z pieskiem Kubusiem.
Zawodowo zajmuje się tworzeniem rozwiązań związanych z testowaniem urządzeń sieciowych. Po godzinach skupiony na projektowaniu oraz optymalizacji licznych procesów, w które zaangażowane są dane pozyskiwane w ramach projektu Speakleash.
Inżynier fotonik i doktorant na wydziale Fizyki Politechniki Warszawskiej, z zainteresowaniami w Data Science i Machine Learning. Skupia się na zgłębianiu wiedzy o szeroko pojętej predykcji, technikach Computer Vision i MLOps. Po godzinach eksperymentuje z technologiami, drukiem 3D oraz mikrokontrolerami.
Data Engineer budujący platformy danych w chmurze. Specjalizuje się w rozwiązaniach dla dużych organizacji. Twórca bloga cloudBI.pl i kanału na Youtube o tej samej nazwie.
Aleksander Obuchowski jest współzałożycielem i liderem grupy badawczej TheLion.ai zajmującej się tworzeniem opensourcowych rozwiązań bazujących na modelach sztucznej inteligencji. Zajmuje się głównie przetwarzaniem języka naturalnego, głębokimi modelami języka oraz sztuczna inteligencją w medycynie. Był wymieniony na liście Forbes 25 under 25 w kategorii nowe technologie.
I have accumulated several years of experience in consulting and project team management. I specialize in architecture design and the development of sophisticated analytical and Machine Learning solutions, business process automation, and effective data visualization. I have gained experience primarily within industries related to marketing, online advertising, e-commerce, and loyalty programs. Continuously advancing my AI competencies, I actively seek inspiration within the realm of technological innovation.
I am a Data Scientist with three years of practical experience in implementing cutting-edge data analysis techniques. While working in consulting, I have gained invaluable insights into diverse industry challenges. I have developed and deployed several machine learning models using Python, including Kedro and SQL. My expertise also extends to web application tools such as Streamlit and Dash, allowing for the creation of complex analytical applications.