Jak przeanalizować ogromną ilość danych i stworzyć wartościową treść? Służą do tego LLM, czyli Large Language Models (wielkoskalowe modele językowe). Potrafią przeanalizować dane, wygenerować raporty i prowadzić rozmowy w czasie rzeczywistym, ale czy zawsze oparte na prawdzie? Jak dbać o bezpieczeństwo przetwarzanych danych i kto ponosi odpowiedzialność za treści wygenerowane przez sztuczną inteligencję? Na te pytania odpowiada w podcaście dr inż. Adrian Kapczyński - adiunkt na Wydziale Matematyki Stosowanej Politechniki Śląskiej i kierownik studiów podyplomowych: "Cyber Science. Zarządzanie cyberbezpieczeństwem".
Rozmowę przeprowadziła red. Katarzyna Siwczyk