Pour sa troisième édition, la conférence Remarkable du Vector Institute revient, où la recherche de pointe rencontre l'innovation dans le monde réel.
Fort de deux années de succès, Remarquable 2026 continue de renforcer sa position en tant que point de convergence entre le génie humain et l'innovation industrielle. Vector estime que l'IA ouvre de nouvelles possibilités, et cette conférence montre comment nous faisons progresser la recherche de pointe et la concrétisons grâce à son impact dans le monde réel.
En tant qu'institut d'IA de premier plan au Canada, Vector collabore avec des partenaires issus de la recherche, de l'industrie et du gouvernement afin de transformer les percées en progrès et en résultats. Remarkable 2026 offre une occasion rare de voir où les possibilités se transforment en productivité et comment le leadership du Canada en matière d'IA émerge sur la scène mondiale.
Cette journée rassemble le meilleur de l'écosystème canadien de l'IA : des chercheurs de renommée mondiale, des innovateurs industriels et des talents émergents qui repoussent les limites. Grâce à des présentations de pointe et à des ateliers pratiques organisés pendant les deux jours, vous acquerrez des connaissances pratiques, établirez de nouveaux contacts et contribuerez à faire progresser la communauté canadienne de l'IA.
Préparez-vous à être inspiré, mis au défi et responsabilisé lors de Remarkable 2026 !
Plongez-vous dans la recherche de pointe en matière d'IA alors que des pionniers mondiaux et des talents émergents partagent leurs dernières avancées. Rejoignez-nous pour une journée complète de discours visionnaires et de présentations techniques qui montrent comment la recherche ouvre de nouvelles possibilités.
Alán Aspuru-GuzikUniversity of Toronto, Vector Institute, CIFAR
Professor, Chemistry and Computer Science; Canada 150 Laureate in Theoretical Chemistry; Canada CIFAR AI Chair
Chris MaddisonUniversity of Toronto, Vector Institute, CIFAR
Assistant Professor, Computer Science & Statistical Sciences; Vector Institute Faculty Member; Canada CIFAR AI Chair
| TIME | SESSION | SPEAKER | |
|---|---|---|---|
10:00 a.m. |
Welcome & Opening Remarks |
Glenda Crisp, Vector Institute |
|
10:15 a.m. |
Fireside Chat |
Nick Frosst, Cohere and Glenda Crisp, Vector Institute |
|
10:45 a.m. |
|
Chris Maddison, Vector Institute |
|
11:15 a.m. |
Applied Talk: Guardrails for Agentic AI Enterprise |
Ankita Upadhyay, Thomson Reuters |
|
1:00 p.m. |
Applied Talk: General Visual Intelligence with Video Models |
Priyank Jaini, Google Deepmind |
|
1:30 p.m. |
|
Alan Aspuru-Guzik, Vector Institute |
|
2:30 p.m. |
Broadcast concludes |
Talk Title: Guardrails for Agentic AI Enterprise
Speaker: Ankita Upadhyay, Senior Director, AI Enablement, Thomson Reuters
2025 marked a definitive shift from Large Language Models to complex Agentic AI solutions. We have moved from asking 'What can AI answer?' to 'What can AI do?', enabling enterprises to embrace autonomous decision-making. Consequently, the primary challenge has become the governance of Agentic Autonomy—managing systems that perform independent planning, utilize integrated tools, and execute multi-step processes without constant human intervention.
This session traces the evolution of Responsible AI from its foundations in LLMs to the critical necessity of Agentic Governance in 2026. We will also explore the urgent need for non-linear forms of accountability, ensuring ethical guardrails scale alongside AI’s increasing agency.
Talk Title: General Visual Intelligence with Video Models
Speaker: Priyank Jaini, Research Scientist, Google DeepMind
Just as Large Language Models (LLMs) transformed natural language processing from bespoke tools into unified foundation models, this talk argues that video generation models are poised to drive a similar paradigm shift in computer vision. The talk will demonstrate that large-scale video models, such as Veo 3, possess emergent zero-shot capabilities that extend far beyond video generation. Without any task-specific training, these models can perform tasks across the entire vision stack—from fundamental perception (e.g., segmentation, edge detection) and physical modeling, to image manipulation and complex visual reasoning.



