Opcije pristupačnosti Pristupačnost

Novosti i objave

18.06.2025

Lecture: The Cross-Disciplinary Impact of Transformers and LLMs

Pozivamo studente, znanstvenike, istraživače i sve zainteresirane da nam se pridruže u ponedjeljak, 23. lipnja 2025., u 9:30 sati u dvorani M4 (Martinovka) na događaju posvećenom najnovijim pomacima u području strojnog učenja, pod nazivom "The Cross-Disciplinary Impact of Transformers and LLMs" (Interdisciplinarni utjecaj transformera i velikih jezičnih modela (LLM)).

FER će tom prilikom ugostiti jednog od vodećih stručnjaka u području umjetne inteligencije, profesora Xaviera Bressona s National University of Singapore (NUS). Njegovo istraživanje fokusira se na grafovsko duboko učenje – inovativni okvir koji kombinira teoriju grafova i neuronske mreže za analizu kompleksnih skupova podataka. Profesor Bresson dobitnik je prestižne NRF Fellowship vrijedne 2 milijuna američkih dolara, najveće individualne znanstvene potpore u Singapuru, a jedan je od autora najcitiranijih radova na NeurIPS-u u ovom području.

Arhitekture temeljene na transformerima i velikim jezičnim modelima (LLM-ovi) uzrokovale su pomak paradigme u strojnom učenju, a njihov se utjecaj proširio i izvan obrade prirodnog jezika. U okviru ovog događaja istražit ćemo kako transformeri potiču napredak u područjima dubokog učenja nad grafovima, bioinformatike, računalnog vida i obrade prirodnog jezika.

Tri stručna predavanja istraživača koji rade na čelu ove transformacije te panel rasprava na temu "Promises and Pitfalls of Transformers Across Domains", secirat će i transformativni potencijal i ključne izazove primjene ovih modela u različitim znanstvenim i inženjerskim disciplinama.

Predavanja i diskusija će se održati na engleskom jeziku. U nastavku obavijesti nalazi se program i opisi predavanja.

PROGRAM

9:30 – 10:30

Xavier Bresson
Integrating Large Language Models and Graph Neural Networks

10:30 – 11:00

Rafael Josip Penić
Decoding the Language of RNA with Large-Scale Foundation Models

11:00 – 11:15

Pauza

11:15 – 11:45

Martin Tutek
From Internals to Integrity: How Insights into Transformer LMs Improve Safety and Faithfulness

11:45 – 12:15

Panel diskusija: Promises and Pitfalls of Transformers Across Domains  
Panelisti: Xavier Bresson, Siniša Šegvić, Mile Šikić
Moderator: Lovro Vrček

 

Xavier Bresson: Integrating Large Language Models and Graph Neural Networks
Sažetak: Jezični modeli prethodno istrenirani na velikim skupovima podataka revolucionirali su alate temeljene na tekstu kroz razvijanje novih sposobnosti u obradi prirodnog jezika. Kada su dokumenti relacijski povezani, oni tvore graf s tekstualnim atributima (TAG), poput interneta, Wikipedije, društvenih mreža, znanstvenih mreža, bioloških mreža, grafova scena i grafova znanja. Ključne primjene TAG-ova uključuju preporuke (web), klasifikaciju (čvorova, poveznica, grafova), zaključivanje temeljeno na tekstu i slici te generiranje potpomognuto pretraživanjem (RAG). U ovom predavanju proći ćemo dva pristupa koja integriraju velike jezične modele (LLM) s grafovskim neuronskim mrežama (GNN). Prva metoda pokazuje kako sposobnosti zaključivanja LLM-ova mogu poboljšati značajke čvorova TAG-a. Drugi pristup uvodi tehniku zvanu GraphRAG, koja odgovore LLM-a utemeljuje na relevantnoj strukturi podgrafa. Ova skalabilna tehnika regulira jezični model, značajno smanjujući netočne odgovore, tzv. halucinacije.

Rafael Josip Penić: Decoding the Language of RNA with Large-Scale Foundation Models
Sažetak: Iako je RNA odnedavno postala zanimljiva meta za lijekove malih molekula, mnogi izazovi još uvijek stoje na putu da u potpunosti iskoristimo njezin potencijal. Ti izazovi naglašavaju potrebu za boljim razumijevanjem njezine strukture i funkcije. Tijekom godina, tehnologije sekvenciranja proizvele su ogromnu količinu neoznačenih podataka o RNA, koji kriju ogroman potencijal. Motivirani uspjesima jezičnih modela za proteine, razvili smo veliki jezični model za RNA kako bismo otkrili njezin skriveni kod. Takvi modeli mogu izvući skriveno znanje i uhvatiti strukturne informacije koje su implicitno ugrađene u RNA sekvence. Naši rezultati su pokazali da temeljni modeli za RNA nadmašuju druge metode dubokog učenja koje ne uspijevaju generalizirati na neviđene RNA obitelji.

Martin Tutek: From Internals to Integrity: How Insights into Transformer LMs Improve Safety and Faithfulness
Sažetak: Od svog uvođenja, jezični modeli bazirani na transformerima, vjerni svom imenu, transformirali su područje obrade prirodnog jezika. Ovi snažni generativni modeli mogu učinkovito rješavati širok raspon zadataka bez specijalizirane obuke, samo slijedeći upute ili primjere dane u prirodnom jeziku. Ono što to omogućuje je njihova sposobnost kodiranja velike količine znanja unutar parametara. U ovom predavanju osvrnut ćemo se na ono što trenutačno znamo o tome kako, i gdje, su informacije kodirane u transformerima, kroz dva nedavna rada. Prvi rad otkriva da transformeri precizno pamte osobno prepoznatljive informacije (PII) kojima su bili izloženi tijekom treniranja, te nudi metodu za njihovo uklanjanje bez korištenja gradijenata. Drugi rad koristi "strojno zaboravljanje" kako bi provjerilo jesu li objašnjenja koja generiraju transformeri vjeran prikaz njihovog internog procesa zaključivanja, čime poboljšavamo povjerenje u komunikaciju između čovjeka i umjetne inteligencije.

Popis obavijesti