Etyka AI. Czym jest i dlaczego ma znaczenie?

Etyka AI w kontekście postępu technologicznego w dziedzinie sztucznej inteligencji może przyczynić się do stworzenia świata z mniejszą stronniczością i większą sprawiedliwością. Czym jest i dlaczego ma dziś tak duże znaczenie?

Wraz z rosnącym znaczeniem sztucznej inteligencji (AI) dla społeczeństwa, eksperci z tej dziedziny zauważyli potrzebę ustalenia granic etycznych w procesie tworzenia i wdrażania nowych narzędzi opartych na AI. Choć obecnie nie istnieje powszechnie uznawana instytucja nadzorcza, która opracowuje i egzekwuje te zasady, wiele firm technologicznych przyjęło własne wersje etyki AI lub kodeksu postępowania.

Etyka AI w obszarze sztucznej inteligencji to zbiór zasad moralnych, którymi firmy oraz organizacje kierują się podczas odpowiedzialnego i sprawiedliwego rozwoju oraz stosowania AI. W poniższym tekście przyjrzymy się, czym są zasady etyczne w dziedzinie AI, dlaczego mają one znaczenie oraz jakie są wyzwania i korzyści związane z opracowywaniem kodeksu postępowania w tej dziedzinie.

Czym jest etyka AI 

Etyka AI (w dziedzinie sztucznej inteligencji) to zbiór zasad, których stosowanie zapewniają interesariusze (od inżynierów po urzędników rządowych), aby zapewnić odpowiedzialne wykorzystanie i rozwój technologii sztucznej inteligencji. Oznacza to podejście bezpieczne, zabezpieczone, humanitarne i przyjazne dla środowiska w stosunku do sztucznej inteligencji.

Solidny kodeks etyki AI może obejmować unikanie uprzedzeń, zapewnienie prywatności użytkowników i ich danych oraz minimalizowanie ryzyka dla środowiska. Istnieją dwa główne sposoby wdrażania etyki w dziedzinie sztucznej inteligencji: kodeksy etyczne w firmach i regulacje rządowe. Poprzez uwzględnianie globalnych i krajowych kwestii etycznych dotyczących sztucznej inteligencji oraz ustanawianie podstawowych polityk dla etycznej sztucznej inteligencji w firmach, oba te podejścia pomagają w regulowaniu technologii AI.

Szerzej rzecz ujmując, dyskusja na temat etyki AI przeniosła się z centrum akademickich badań i organizacji non-profit. Dziś duże firmy technologiczne, takie jak IBM, Google i Meta, stworzyły zespoły zajmujące się problemami etycznymi wynikającymi z gromadzenia ogromnych ilości danych. Jednocześnie rządy i organizacje międzynarodowe zaczęły opracowywać regulacje i politykę etyczną opartą na badaniach akademickich.

Etyka AI – interesariusze 

Rozwijanie zasad etycznych dla odpowiedzialnego wykorzystania i rozwoju sztucznej inteligencji wymaga współpracy uczestników branży. Interesariusze muszą zbadać, jak kwestie społeczne, ekonomiczne i polityczne łączą się z AI oraz określić, jak maszyny i ludzie mogą harmonijnie współistnieć.

Każdy z tych uczestników odgrywa ważną rolę w zapewnieniu mniejszego wpływu uprzedzeń i minimalizowaniu ryzyka dla technologii AI.

  • Akademicy. Badacze i profesorowie są odpowiedzialni za rozwijanie statystyk opartych na teorii, badań oraz pomysłów, które mogą wspierać rządy, firmy oraz organizacje non-profit.
  • Rząd. Agencje i komitety w ramach rządu mogą pomóc w ułatwianiu etyki sztucznej inteligencji w państwie. Dobrym przykładem jest raport „Przygotowanie na przyszłość sztucznej inteligencji”, opracowany przez Narodową Radę Nauki i Technologii (NSTC) w 2016 roku, który przedstawia sztuczną inteligencję i jej związek z działaniami na rzecz społeczeństwa, regulacjami, zarządzaniem, gospodarką i bezpieczeństwem.
  • Podmioty międzyrządowe. Podmioty takie jak Organizacja Narodów Zjednoczonych i Bank Światowy są odpowiedzialne za podnoszenie świadomości i opracowywanie umów dotyczących etyki sztucznej inteligencji na skalę globalną. Na przykład 193 państwa członkowskie UNESCO przyjęły w listopadzie 2021 roku pierwszą w historii globalną umowę dotyczącą Etyki Sztucznej Inteligencji, aby promować prawa człowieka i godność.
  • Organizacje non-profit. Tego typu instytucje pomagają różnorodnym grupom zdobyć reprezentację w technologii sztucznej inteligencji. Instytut Future of Life opracował 23 wytyczne, które stały się Zasadami Asilomar dotyczącymi sztucznej inteligencji, które wyznaczają konkretne ryzyka, wyzwania i rezultaty dla technologii AI.
  • Przedsiębiorstwa prywatne. Google, Meta oraz inne firmy technologiczne, a także branże bankowe, konsultingowe, opieki zdrowotnej i inne sektory prywatne wykorzystujące technologię AI, odpowiadają za tworzenie zespołów etyki oraz kodeksów postępowania. Często prowadzi to do ustanowienia standardów, które inne firmy chętnie przyjmują.

 

Dlaczego etyka AI jest ważna?

Etyka AI jest ważna, ponieważ sama technologia AI ma na celu uzupełnianie lub zastępowanie ludzkiej inteligencji— ale gdy technologia jest zaprojektowana, aby naśladować perspektywę człowieka, te same wyzwania i przekonania, które wpływają na ludzki osąd, mogą przenikać do technologii.

Projekty AI oparte na stronniczych lub nieprecyzyjnych danych mogą mieć szkodliwe konsekwencje, zwłaszcza dla grup lub jednostek niedoreprezentowanych lub marginalizowanych. Ponadto, jeśli algorytmy AI i modele uczenia maszynowego są budowane zbyt pochopnie, może to stać się nie do opanowania dla inżynierów i menedżerów produktu w celu skorygowania wyuczonych uprzedzeń. Łatwiej jest włączyć kodeks etyczny podczas procesu rozwoju, aby zminimalizować ewentualne przyszłe ryzyka.


Etyka sztucznej inteligencji w filmie i telewizji

Fantastyka naukowa—w książkach, filmach i telewizji—od dawna bawi się pojęciem etyki w sztucznej inteligencji. Przykładowo w filmie „Ona” z 2013 roku w reżyserii Spike’a Jonze’a, użytkownik komputera zakochuje się w swoim systemie operacyjnym ze względu na jej uwodzicielski głos. Jest to tragikomiczne wyobrażenie sposobów, w jakie maszyny mogłyby wpływać na ludzkie życie i przekraczać granice „miłości”, ale jednocześnie podkreśla potrzebę rozważności wokół tych rozwijających się systemów.


Etyka AI – przykłady 

Najłatwiej ilustrować etykę sztucznej inteligencji na przykładach z życia codziennego. W grudniu 2022 roku aplikacja Lensa AI wykorzystała sztuczną inteligencję do generowania efektownych, kreskówkowych zdjęć profilowych na podstawie zwykłych zdjęć ludzi. Z punktu widzenia etycznego, niektórzy krytykowali aplikację za brak uznania lub wystarczającej zapłaty dla artystów, którzy stworzyli oryginalną sztukę cyfrową, na podstawie której została przeszkolona sztuczna inteligencja [1}. Według informacji z „The Washington Post”, Lensa była szkolona na miliardach fotografii pobranych z Internetu bez zgody [2].

Kolejnym przykładem jest model sztucznej inteligencji ChatGPT, który umożliwia użytkownikom interakcję poprzez zadawanie pytań. ChatGPT przeszukuje Internet w poszukiwaniu danych i odpowiada wierszem, kodem Pythona lub gotową propozycją tekstu. Jednym z dylematów etycznych jest to, że ludzie używają ChatGPT, aby wygrywać konkursy programistyczne lub pisać eseje. Podobnie jak w przypadku Lensa, pojawiają się podobne pytania, ale dotyczące tekstu, a nie obrazów.

To tylko dwa popularne przykłady wyzwań dot. etyki AI. Wraz z rosnącym znaczeniem sztucznej inteligencji w ostatnich latach, wpływającym na niemal każdą branżę i mającym ogromny pozytywny wpływ na dziedziny takie jak opieka zdrowotna, temat etyki AI stał się jeszcze bardziej istotny. Jak zapewnić wolność od uprzedzeń w sztucznej inteligencji? Co można zrobić, aby zmniejszyć ryzyko w przyszłości? Istnieje wiele potencjalnych rozwiązań, ale interesariusze muszą działać odpowiedzialnie i współpracować, aby stworzyć pozytywne wyniki na całym świecie.

Etyka AI – główne wyzwania 

Istnieje wiele realnych wyzwań, które mogą pomóc zobrazować etykę sztucznej inteligencji. Oto tylko kilka z nich:

 

Sztuczna inteligencja a uprzedzenia 

Jeśli sztuczna inteligencja nie gromadzi danych, które dokładnie odzwierciedlają populację, ich decyzje mogą być podatne na uprzedzenia. W 2018 roku Amazon był na celowniku krytyki ze względu na narzędzie rekrutacyjne oparte na sztucznej inteligencji, które obniżało oceny życiorysów zawierających „kobiety” (takie jak „Women’s International Business Society”) [3]. W rezultacie narzędzie SI dyskryminowało kobiety i stwarzało ryzyko prawne dla giganta technologicznego.

Z kolei polskie badania z 2023 roku analizujące uprzedzenia płciowe w tworzonych przez SI obrazach profesjonalistów, skupiających się na wizualnej reprezentacji mężczyzn i kobiet pracujących w branżach: medycznej, prawnej, projektowej i akademickiej, jednoznacznie wykazały że AI w znaczący sposób marginalizuje kobiety. Na obrazach wygenerowanych przez AI mężczyźni byli reprezentowani aż w 76 procentach materiałów, a kobiety pojawiały się jedynie na 8 procentach [4].

Ai i prywatność

Jak wspomniano wcześniej na przykładzie Lensa AI, sztuczna inteligencja korzysta z danych pobieranych z wyszukiwań internetowych, zdjęć i komentarzy na mediach społecznościowych, zakupów online i wielu innych źródeł. Choć pomaga to w personalizacji doświadczenia klienta, pojawiają się pytania dotyczące braku rzeczywistej zgody na dostęp tych firm do naszych danych osobowych.

AI i środowisko

Niektóre modele sztucznej inteligencji (SI) są duże i wymagają znacznych ilości energii do trenowania na danych. Choć prowadzone są badania nad opracowaniem metod na bardziej energooszczędne SI, to wciąż stoimy przed dużym wyzwaniem, aby uwzględnić kwestie etyki środowiskowej w związku z politykami dotyczącymi SI.

Jak stworzyć bardziej etyczną AI 

Tworzenie bardziej etycznej sztucznej inteligencji wymaga dokładnego przyjrzenia się etycznym implikacjom polityki, edukacji i technologii. Ramy regulacyjne mogą zagwarantować, że technologie służą społeczeństwu, a nie szkodzą mu. Globalnie rządy zaczynają egzekwować polityki dotyczące etycznej AI, w tym sposobu postępowania firm w przypadku wystąpienia uprzedzeń lub innych szkód.

Każdy, kto styka się z AI, powinien zrozumieć ryzyka i potencjalne negatywne skutki nieszczerych lub fałszywych technologii. Tworzenie i rozpowszechnianie dostępnych zasobów może zmniejszyć te rodzaje ryzyka.

Może się wydawać paradoksalne wykorzystywanie technologii do wykrywania nieetycznego zachowania w innych formach technologii, ale narzędzia AI mogą być używane do określania, czy wideo, dźwięk czy tekst (na przykład mowa nienawiści w mediach społęcznoścowych) są prawdziwe czy nie. Te narzędzia potrafią lepiej i bardziej efektywnie niż ludzie wykrywać nieetyczne źródła danych i uprzedzenia.

Etyka AI na Uczelni Łazarskiego 

Weź udział w Kursach na Uczelni Łazarskiego.

Oprócz rozbudowanego modułu dotyczącego etyki AI, szkolenia zakładają również naukę kompleksowego wykorzystania narzędzi opartych na Gen AI w codziennej pracy, jak również w życiu prywatnym. Skontaktuj się z nami po więcej szczegółów

Tekst powstał na bazie materiałów z Coursery.

Źródła artykułów

1. NBC News. “Lensa, the AI portrait app, has soared in popularity. But many artists question the ethics of AI art

2. Washington Post. “Your selfies are helping AI learn. You did not consent to this, 

3. Reuters. “Amazon scraps secret AI recruiting tool that showed bias against women, 

4. ALK The invisible women: uncovering gender bias in AI-generated images of professionals

Nasze programy

Joanna Knast

Mentorka programów na Lazarski University of Technology

 

Jest psycholożką z wieloletnią praktyką marketingową i szkoleniową w branżach: fintech, e-commerce, fundacjach i agencjach reklamowych. Z pasją rozwija swoje umiejętności biznesowe i psychologiczne dzieląc się zdobywaną wiedzą. Joanna posiada doświadczenie w zakresie zarządzania projektami, współpracy z partnerami, wdrażania strategii marketingowych, automatyzacji marketingu oraz pozyskiwania i aktywacji klientów.

 

W programach szkoleniowych, stara się łączyć najbardziej aktualną wiedzę psychologiczną i biznesową. Szczególny nacisk kładzie na możliwość wykorzystania kompetencji indywidualnych, budowania poczucia sprawczości, zarządzania stresem w pracy, motywacji oraz komunikacji w zespole

Zuzanna Krauzowicz

Starsza Prawniczka w FinTech Poland, specjalizuje się w regulacjach sektora finansowego.

 

Posiada doświadczenie w zakresie regulacji dotyczących przeciwdziałania praniu pieniędzy oraz finansowaniu terroryzmu, prawa bankowego, usług płatniczych oraz obrotu instrumentów finansowych.

 

Od 5 lat związana z Fundacją Fintech Poland (gdzie odpowiada za prowadzenie projektów na styku technologii i regulacji) oraz z Fundacją Polska Bezgotówkowa.

 

Współautorka publikacji i artykułów dotyczących m.in. RODO, AML, MIFID II, MIFIR, PSD2. Absolwentka prawa WPiA Uniwersytetu Warszawskiego.

Mariusz Truszkowski

Innowator, marzyciel, założyciel Szkoły w Chmurze. Swoim działaniem udowadnia, że system edukacji może działać naprawdę dobrze. Pokazuje, że Szkoła w Chmurze ze swoimi wspierającymi nauczycielami, przemyślanym modelem egzaminowania, platformą, podręcznikami oraz bogatą ofertą warsztatów rozwijających kompetencje jest przykładem edukacji na miarę XXI wieku.

 

Zjeździł spory kawałek świata, odwiedzając rozmaite szkoły oraz społeczności i ich twórców, znajdując dobre praktyki i powtarzające się wzorce działania, uzupełniając to wszystko wiedzą naukową oraz własnym doświadczeniem.

 

Twórca Zielonej oraz Turkusowej Wieży – sieci przedszkoli oraz szkoły.

 

Klauzula informacyjna

Zgodnie z art. 13 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych RODO, Dz. U. UE. L. z 2016 r. Nr 119) informujemy, iż:
 
  1. Administratorem Twoich danych osobowych jest Uczelnia Łazarskiego z siedzibą w Warszawie przy ul. Świeradowskiej 43, 02-662 Warszawa.
  2. Administrator powołał Inspektora Ochrony Danych, z którym można się skontaktować pod adresem – iod@lazarski.edu.pl.
  3. Twoje dane osobowe będą przetwarzane w celu uczestnictwa w wydarzeniu pt.: „Przyszłość pracy: nowoczesne ścieżki kariery” na podstawie art. 6 ust. 1 lit. b – realizacja oraz podejmowanie działań w celu wykonania umowy oraz art. 6 ust. 1 lit. f RODO, uzasadnionego interesu jakim jest zapewnienie kontaktu z uczestnikami, promocja i rozwój nauki, kształtowanie i promowanie kadry naukowej oraz promocja działalności edukacyjnej Administratora. Dane mogą być także przetwarzane w celu realizacji ciążących na Administratorze obowiązków prawnych wynikających z przepisów prawa podatkowego, czasu przedawnienia należności/zobowiązań podatkowych na podstawie art. 6 ust. 1 lit. c RODO.
  4. Twoje dane osobowe mogą być również przetwarzane przez Administratora w celu:
    – prowadzenia działań marketingowych własnych usług edukacyjnych na podstawie art. 6 ust. 1 lit. f,
    – prowadzenia kampanii promocyjnych, reklamowych i innych działań marketingowych związanych z usługami edukacyjnymi Administratora w formie mailingu, jeżeli udzielisz zgody, na podstawie art. 6 ust. 1 lit. a ogólnego rozporządzenia o ochronie danych osobowych RODO, art. 172 ustawy z dnia 16 lipca 2004 r. Prawo telekomunikacyjne oraz ustawy z dnia 16 lipca 2002 r. o świadczeniu usług drogą elektroniczną.
  5. Twoje dane osobowe będą przechowywane przez Administratora przez okres niezbędny do realizacji Twojego uczestnictwa lub do czasu przedawnienia ewentualnych roszczeń. W przypadku przetwarzania na potrzeby marketingu produktów własnych na podstawie prawnie uzasadnionego interesu – do czasu jego istnienia lub zgłoszenia sprzeciwu przez osobę, której dane dotyczą, w przypadku wyrażenia zgody na ich przetwarzanie do czasu odwołania zgody.
  6. Odbiorcami Twoich danych osobowych będą podmioty uprawnione do uzyskania danych osobowych na podstawie przepisów prawa. Dane osobowe mogą zostać przekazane przez nas podmiotom, które obsługują systemy teleinformatyczne Administratora oraz udostępniające narzędzia teleinformatyczne lub świadczące dla Administratora usługi pocztowe, hostingu, chmurowe czy niszczenia dokumentacji.
  7. Twoje dane osobowe nie będą poddawane zautomatyzowanym decyzjom, w tym nie będą profilowane.
  8. Posiadasz prawo do żądania od Administratora dostępu do danych osobowych, prawo do ich sprostowania, usunięcia lub ograniczenia przetwarzania, prawo do przenoszenia danych, a w przypadku wyrażenia zgody na ich przetwarzanie prawo do cofnięcia zgody w dowolnym momencie (bez wpływu na zgodność z prawem przetwarzania, którego dokonano na podstawie zgody przed jej cofnięciem).
  9. Masz prawo wniesienia skargi do organu nadzorczego – Prezesa Urzędu Ochrony Danych Osobowych.
  10. Posiadasz prawo wniesienia, w dowolnym momencie, sprzeciwu – z przyczyn związanych z Twoją szczególną sytuacją – wobec przetwarzania danych osobowych, opartego na podstawie art. 6 ust. 1 lit. f RODO.
  11. Podanie danych osobowych jest dobrowolne, jednak konieczne do realizacji celów, do jakich zostały zebrane. Niepodanie danych może skutkować niemożliwością uczestnictwa w wydarzeniu.
  12. Twoje dane osobowe nie będą przekazywane do państwa trzeciego/ organizacji międzynarodowej, o ile nie będą tego wymagały prawne obowiązki Administratora.
 
Administrator działając na podstawie uzasadnionego interesu jakim jest prowadzenie dokumentacji organizowanych wydarzeń oraz przekazywanie informacji o nich, informuje, że podczas wydarzenia, będą wykonywane, za pośrednictwem wyznaczonej osoby/osób, w jego trakcie zdjęcia. Każdy z uczestników biorąc udział w wydarzeniu akceptuje, że jego wizerunek umieszczony na fotografiach może zostać rozpowszechniony na stronach internetowych należących do Uczelni oraz na fanpage Uczelni na portalu społecznościowym Facebook, Instagram oraz LinkedIn. Uczestnikom wydarzenia przysługuje możliwość odwołania udzielonego zezwolenia.

Agnieszka Bajer

Trenerka Improv, improwizatorka i  wokalistka klasyczna.

 

Jej pasją jest muzyka i improwizacja i z nimi połączyła swoją drogę zawodową.

 

Absolwentka Akademii Muzycznej w Łodzi i Wrocławiu, szkoły Olimpic Improv w Chicago oraz scenariopisarstwa w Warszawskiej Szkole Filmowej.

 

Od 2010 roku współtworzy spektakle improv z grupami: Teatr Ab Ovo, Impro Quartet, Musical Improwizowany oraz Bez Klepki. Współpracuje regularnie z gwiazdami świata kabaretu i estrady. Improwizacja poprowadziła ją w stronę scenariopisarstwa i stworzyła autorski program warsztatów „Impro dla scenarzystów”, które prowadziła w Warszawskiej Szkole Filmowej oraz w StoryLab.Pro.  Poprzez improwizację ćwiczymy akceptację, uważność oraz zwinność w myśleniu. Słynne „Tu i Teraz” przestaje być enigmatyczne i staje się przygodą. 

 

Na codzień śpiewa w chórze Opery Narodowej, gdzie ma okazję poczuć siłę współpracującej ze sobą grupy ludzi. 

Ilona Perużyńska-Zych

Dyrektorka Personalna I Akredytowana Mentorka i Managerka Programów Mentoringowych EMCC Global l Coach ICC I Praktyk Biznesu.

 

Od ponad 15 lat zarządza zespołami, organizacją procesów na wielu poziomach organizacji.

 

Doskonalone zna rynek pracy i jego złożoność. Zwinnie porusza się w obszarze budowania relacji oraz kultury organizacyjnej. W swojej pracy wykorzystuje umiejętności coachingowe i mentoringowe. Jej pasją są Ludzie. Inspiruje ją przyszłość i jej potencjał. Fascynuje ją Reverse mentoring.

Zapisz się na Inaugurację Lazarski University of Technology

Konrad Wawruch

Polski przedsiębiorca technologiczny, twórca przedsięwzięć i inwestor. Założył 7bulls.com, grupę firm dostarczających globalnie innowacje oparte na sztucznej inteligencji i chmurze dla finansów, handlu detalicznego, farmacji, motoryzacji i mediów. Jest odpowiedzialny za nowe przedsięwzięcia oparte na badaniach i rozwoju w grupie 7bulls jako CEO Accelevation, ramienia inwestycyjnego grupy. Poszukuje wyjątkowych startupów Blockchain przez seryjnych przedsiębiorców w True Global Ventures 4 Plus, a następnie przenosi je na wyższy poziom jako partner zarządzający TGV 4 Plus Follow On Fund, we współpracy z innymi renomowanymi VC na późnym etapie rozwoju.

 

Aby usprawnić wprowadzanie innowacji na rynek, doradza VC, PE i akceleratorom, jest członkiem Rady Koalicji na rzecz Polskich Innowacji – międzysektorowej sieci, która wzmacnia powiązania w ramach ekosystemu innowacji poprzez promowanie dobrych praktyk i mądrej legislacji. Zespoły badawczo-rozwojowe, które założył i zorganizował, zatrudniają dziś ponad 2000 pracowników badawczo-rozwojowych, pracujących dla globalnych przedsiębiorstw z Polski.

Krzysztof Piech

Profesor nadzwyczajny (Uczelnia Łazarskiego), dr hab. nauk ekonomicznych (SGH), otrzymywał stypendia naukowe na najlepszych uczelniach w Europie i w Azji. Ewangelista technologii blockchain i bitcoin w Polsce. Dyrektor Centrum Technologii Blockchain przy Uczelni Łazarskiego. Członek Polskiego Towarzystwa Ekonomicznego, British Alumni Society, Polskiego Stowarzyszenia Bitcoin. Były lider biznesowy Strumienia „Blockchain / DLT i Waluty Cyfrowe” – rządowego programu „Od papierowej do cyfrowej Polski”. Ekspert różnych ministerstw, urzędów centralnych oraz regionalnych. Doradca kilku startupów blockchainowych.

Tomasz Klekowski

Praktyk transformacji cyfrowej działający w ramach wielu organizacji, wykładowca studiów MBA i podyplomowych, 15 lat doświadczenia w tworzeniu i zarządzaniu międzynarodowymi zespołami pracującymi w warunkach pracy zdalnej i hybrydowej: Dyrektor ds. Rozwoju Rynku B2B EMEA Intel – 2013-2018, Dyrektor Zarządzający w regionie Europy Środkowo-Wschodniej Intel – 2006 – 2013, Dyrektor Sprzedaży w regionie Europy Środkowo-Wschodniej Intel – 2002-2006. Odpowiedzialny za wdrożenie w biurach Intela w Polsce i Czechach nowej koncepcji organizacji pracy w biurze ‘The Way We Work’ – nastawionej na pracę hybrydową (2012-2013).

 

Twórca warsztatów poświęconych pracy zdalnej realizowanych w ramach: Letniej Akademii Lewiatana, Szkoły Euroliderek, stowarzyszenia HR Generation Next. Absolwent Politechniki Wrocławskiej, wydział Zarządzania i Marketingu oraz INSEAD Executive Programme. Jeden z pierwszych w Polsce promotorów pracy zdalnej.

 

Marlena Wieteska

Obecnie ekspertka od innowacji na Uczelni Łazarskiego oraz na Lazarski University of Technology, wykładowczyni, trenerka i mentorka.

 

W swoich działaniach zawodowych łączy szerokie doświadczenia z pracy w fintechach, w startupach, w agencjach digitalowych, z własnej działalności oraz z pracy na stanowiskach menadżerskich w bankach z wiedzą marketingową, sprzedażową, z zarządzania projektami i zmianą, jak i z wiedzą psychologiczną. 

 

Entuzjastka interdyscyplinarności i eksperymentatorka.

 

Katarzyna Syrówka

Akredytowana mentorka rozwoju talentów, drogi zawodowej oraz budowania poczucia dobrostanu pracowników w EMCC na poziomie Senior Practitioner level® oraz certyfikowany coach Gallupa, facylitatorka modelowania stanowiska pracy wg metodyki Job Crafting, praktyk biznesu z ponad 28-letnim doświadczeniem w zarządzaniu strategicznym, sprzedaży i konsultingu biznesowym, właścicielka marki syrowka.com. Asesorka programów mentoringowych oraz akredytacji dla mentorów w EMCC Global.

 

Autorka corocznego RAPORTU Future, ukazującego trendy rynku pracy i zawodów przyszłości. Strateg i wizjoner (Gallup®) prowadzący organizacje ku przyszłości. Przeprowadza liderów oraz firmy z wczoraj do jutra, w oparciu na ich dobrostan i wspiera poczucie sprawczości.

 

Mentorka rozwoju organizacji opartej na potencjale ludzi.