Wissenschaftliches Seminar Integrierte Systeme
| Vortragende/r (Mitwirkende/r) | |
|---|---|
| Art | Seminar |
| Umfang | 3 SWS |
| Semester | Wintersemester 2025/26 |
| Unterrichtssprache | Deutsch |
Termine
Teilnahmekriterien
Anmerkung: Anmerkung: Begrenzte Teilnehmerzahl! Anmeldung in TUMonline vom 22.09.2025 - 19.10.2025. Studierende müssen bis zum 31. Oktober 2025 ein Seminarthema wählen. Bitte kontaktieren Sie dafür die Betreuungsperson des Themas, für das Sie sich interessieren. Die Vergabe erfolgt nach dem Prinzip „Wer zuerst kommt, mahlt zuerst.“ Die einzelnen Themen werden ab 06.10.2025 unter <a href="https://www.ce.cit.tum.de/lis/lehre/seminare/seminar-integrierte-systeme/">https://www.ce.cit.tum.de/lis/lehre/seminare/seminar-integrierte-systeme/</a> bekannt gegeben. Die Teilnahme an der Einführungsveranstaltung am 23. Oktober 2025 (Donnerstag) um 10:30 Uhr in Raum N2128 ist verpflichtend, um Ihr Thema zu sichern. Drei Voraussetzungen müssen erfüllt sein, um sich erfolgreich für diesen Kurs einzuschreiben: (1) Anmeldung über TUMonline (2) Teilnahme an der Einführungsveranstaltung (3) Bestätigung eines Themas durch eine Betreuerin oder einen Betreuer
Lernziele
Beschreibung
Die Modulteilnehmer erarbeiten selbstständig aktuelle wissenschaftliche Beiträge, fertigen eine zu bewertende schriftliche Ausarbeitung an, präsentieren ihren Beitrag im Rahmen eines Kolloquiums und tragen mit Diskussionsbeiträgen zum Kolloquium bei.
Inhaltliche Voraussetzungen
sowie deren Anwendungen.
Lehr- und Lernmethoden
Der Teilnehmer bekommt - abhängig von seinem individuellen Thema - einen eigenen Betreuer zugeordnet. Der Betreuer hilft dem Studierenden insbesondere zu Beginn der Arbeit, indem er in das Fachthema einführt, geeignete Literatur zur Verfügung stellt und hilfreiche Tipps sowohl bei der fachlichen Arbeit als auch bei der Erstellung der schriftlichen Ausarbeitung und des Vortrags gibt.
Wenn alle drei im Abschnitt „Teilnahmekriterien & Anmeldung“ beschriebenen Bedingungen erfüllt sind, können Sie freiwillig am Schreib- und Präsentationsworkshop des EDA-Lehrstuhls teilnehmen (15:00–16:30 Uhr, Raum 2999, auf Englisch):
03.11.2025: Wissenschaftliches Schreiben
17.11.2025: Präsentationstraining
(Aufgrund begrenzter Raumkapazität stehen nur wenige Plätze zur Verfügung; Vergabe nach dem Prinzip „first come, first served“).
Studien-, Prüfungsleistung
- 50 % schriftliche Ausarbeitung (typisch 4 Seiten)
- 50 % Vortrag 15 Minuten plus Diskussion 5 Minuten
Empfohlene Literatur
Links
Angebotene Themen
Vergebene Themen
Low-power Asynchronous Neural Networks
Beschreibung
Description
Neural networks (NNs) have seen great improvements over the last decades and have consequently been adopted for a multitude of applications. While much more capable in certain areas than prior solutions, NNs have one big drawback.
A neural network requires much more power than traditional computational models, making them generally unsuited for embedded devices. The rapid adoption also poses challenges for high performance models, as the amount of processing power required for widespread use strains the existing power grid - with construction of AI data-centers significantly outpacing construction of new power plants. Clearly this growth is unsustainable unless these challenges are addressed.
In part to address these issues, research has been ongoing into techniques which may avoid the high computational cost and power dissipation of standard neural networks, such as Convolutional Neural Networks (CNNs). Particularly for event driven computation, models such as Spiking Neural Networks (SNNs) and/or asynchronous neural networks offer potentially significant benefits; as event driven applications only require that computation is performed once a new event occurs, power can be saved by only being active when a computation is required. Asynchronous circuits take this idea to the extreme by completely avoiding all dynamic power dissipation except when subcircuits have valid inputs available.
Task
For this seminar topic, the student is expected to look into the state-of-the-art for asynchronous neural networks and provide a summary of relevant research. Papers that could serve as potential starting points can be seen below, but the student is free to pursue the topic as they want, within the confines of the scope given in this description.
Starting points
- A 28nm Configurable Asynchronous SNN Accelerator with Energy-Efficient Learning
- DYNAP-SE2: a scalable multi-core dynamic neuromorphic
asynchronous spiking neural network processor - Design and Tool Flow of a Reconfigurable Asynchronous
Neural Network Accelerator - A 2048-Neuron Spiking Neural Network
Accelerator with Neuro-Inspired Pruning and
Asynchronous Network on Chip in 40nm CMOS
Betreuer:
One Flow, Many Cores: Challenges and Solutions in Multicore Network Processing
Beschreibung
?? CPU ? DPU ???????????????????????????????????????????????????????????????????????????????
????????????????????????????????????????“???→????”??????????????????????????????????????????RDMA/RoCE ? NFV ???????
Voraussetzungen
- ??????????????????
- ??????/?????????
Kontakt
Shichen Huang
shichen.huang@tum.de
Betreuer:
Prefetching Techniques for GPGPU
Beschreibung
Prefetching is a widely used technique in modern processors to mitigate the memory wall problem by fetching data into faster memory levels before it is actually needed. While prefetching has been extensively studied and deployed in CPUs, where hierarchical cache designs (L1, L2, and off-chip DRAM) dominate, GPUs present a very different challenge.
GPUs are now central to diverse applications ranging from artificial intelligence to scientific computing. Their massively parallel architecture and SIMT execution model create distinct memory access behaviors compared to CPUs. Consequently, conventional CPU prefetching mechanisms are often ineffective or even harmful when applied to GPUs. This has led to the development of GPU-specific prefetching strategies that account for the unique architectural features and execution patterns of GPUs.
The goal of this seminar is to study and compare different GPU prefetching mechanisms. By reviewing recent research papers, participants will gain an understanding of how these mechanisms work, their advantages and limitations, and under what conditions they can improve GPU performance.
Voraussetzungen
- Basic Knowledge of Computer Architecure
- Good English Skill
Kontakt
Yuanji Ye
yuanji.ye@tum.de