Sprekers

Overzicht

De volgende sprekers hebben aangegeven een lezing te komen geven op Hyperience:

Het gehele dagprogramma zal door Henk J. Sips (TU Delft) in goede banen geleid worden.


Dagvoorzitter

De dagvoorzitter van 'Hyperience' is Henk Jan Sips van de TU Delft.

Henk Sips

Henk J. Sips received a M.Sc. degree from Delft University of Technolgy in 1976. He obtained a PhD in Computer Science (parallel and distributed computing) from Delft University of technology in 1984.

Currently he is full professor of Computer Science and chair of the Parallel and Distributed Systems group at Delft University of Technology. His research interests include parallel computer architectures, parallel programming, parallel algorithms, mobile computing, and distributed systems. Research projects he is involved in cover subjects such as language design and compiler technology for parallel systems, low power computing, mobile computing, and peer-2-peer systems. He has supervised over 15 PhD theses in these areas.

Henk Sips obtained a large number of research grants from the Dutch National Science foundation (NWO-EW and STW), the BSIK program, and the EU. He participated in the Esprit programs GENESIS, PCA, Hipartool, PREPARE, and Joses and is a member of the Hipeac Network of Excellence. Currently he is involved in the BSIK research programs VL-E (grid computing), Freeband (peer-to-peer systems), Smart Surroundings (intelligent sensor environments), and ESI (embedded systems).

Henk Sips authored and co-authored over 120 scientific publications and co-authored the book “Computer and Network Organization”, Prentice Hall, 1995. He served on numerous program committees of scientific conferences and is a member of the editorial board of the journals Scientific Programming and Concurrency & Computation. He regularly serves as reviewer and advisor for IWT, NSF, STW, NWO, Progress, ITEA, European Commission, and research institutes such as TNO, WL, and RIVM.


Folding@home

Folding@home is a distributed computing project -- people from throughout the world download and run software to band together to make one of the largest supercomputers in the world. Every computer takes the project closer to our goals. Folding@home uses novel computational methods coupled to distributed computing, to simulate problems millions of times more challenging than previously achieved.

Imran Haque

Imran Haque is researcher at Stanford University and has been part of the Pande Research Lab (the group behind Folding @home) since 2007.


Personal supercomputing

Het uitvoeren van zeer omvangrijke wetenschappelijke berekeningen gebeurde traditioneel altijd op grote supercomputers, opgesteld in speciaal daarvoor ingerichte gebouwen. Met de komst van vrij programmeerbare Graphics Processing Units (GPU’s), heeft menig consument de beschikking over een zeer krachtige parallelle processor, die voor bepaalde soorten berekeningen een snelheid haalt die vergelijkbaar is met dergelijke supercomputers. De GPU bevindt zich gewoon op de 3D-kaart, die normaal gebruikt wordt voor het spelen van PC games. In deze lezing zal de opkomst van de GPU als “personal supercomputer” worden besproken. Centraal daarbij staat de vraag: hoeveel rekenkracht kunnen we halen uit een enkele PC?

Sander van der Maar

Sander van der Maar is geboren in 1982 in Rotterdam. Hij sloot zijn studie informatica aan de Universiteit Leiden af in 2007. Naast zijn studie werkte hij als programmeur bij vodio.com, een bedrijf dat tv-kaart software ontwikkeld en aan het einde van zijn studie heeft hij een IBM Cell back-end geschreven voor een parallelliserende compiler. Hierna is hij in Antwerpen bij het VisionLab gaan werken, waar hij medeverantwoordelijk is voor de implementatie van de FASTRA desktop supercomputer.


Speuren in satellietbeelden, ofwel: hoe verwerk ik plaatjes van een Terapixel camera?

Bij rampen als aardbevingen en overstromingen, maar ook bij oorlogen spelen satelietbeelden een steeds belangrijker rol bij het coordineren van hulpverlening. Via satelietbeelden kunnen we zien welke gebouwen zijn ingestort, welke wegen vernield, maar ook waar we nog wel b.v. een veldhospitaal neer kunnen zetten. Het probleem is dat de satelietbeelden steeds groter worden, en dat nog in veel gevallen de beelden door mensen worden beoordeeld. Bij de aardbeving in Haiti was er ongeveer 1.5 Terapixel aan beelden te bestuderen. Automatische analyse zou met een moderne PC en de oorspronkelijke software 34.000 jaar duren. Met verbeteringen in de software werd dat 40 dagen, maar dat is nog steeds veel te lang. In deze lezing vertel ik hoe we het nu met 384 processoren in ongeveer 1.5 uur kunnen doen. Uitbreiding naar 3820 processoren, en naar een wereldwijd netwerk van computers komen ook aan de orde.

Michael Wilkinson, Universitair Hoofddocent Informatica

Na een studie sterrenkunde, waar ik met computer beeldanalyse in aanraking kwam, ben ik in het ziekenhuis gaan werken aan beeldanalyse van darmbacterien. Hierop ben in de informatica gepromoveerd. Daarna heb ik een project opgestart voor computersimulatie van darmbacterien op een parallelle computer, en later werkte ik met anderen samen om kiezelwieren (eencellige algjes) automatisch te identificeren. Ik werk sinds 1999 in vaste dienst bij de vakgroep informatica van de Rijksuniversiteit Groningen. Hierbij doe ik onderzoek aan beeldanalyse en computer vision, en met name aan methodes waar we proberen na te bootsen hoe de mens delen van een plaatje groepeert tot een geheel. Daarnaast werk in aan parallel rekenen, met aan name satelietbeelden. Toepassings gebieden zijn heel divers: van medische beeldanalyse, via sterrenkundige beelden en historische documenten, naar satelietbeelden. Ook geef ik colleges en begeleid ik studenten in onderzoeksstages.


Het LOFAR-systeem

LOFAR (Low Frequency ARray) is de grootste radio telescoop ter wereld die waarneemt in de frequentieband van 30 MHz tot 240 MHz. In tegenstelling tot traditionele telescopen bestaat LOFAR niet uit een aantal grote schotels maar juist uit vele kleine antenne sensoren. Deze antenne sensoren zijn verspreid over 36 stations in Nederland en nog eens 8 in de rest van Europa. Elk antennestation verwerkt de signalen van 96 ontvangers. De ontvangers digitaliseren de radio signalen. De verdere signaalbewerking gebeurt op digitale chips in de stations. De hoofdtaken zijn filtering, (kruis)correlatie en bundelvorming. De bundelvorming zorgt voor ongeveer een factor 100 in data reductie van de data uitgangs stroom via glasvezel naar een centrale super computer in Groningen. Voor de verbinding naar Groningen wordt 10 GbE technologie gebruikt. De totale hoeveelheid data naar Groningen is ~ 220 Gbps. De stations data wordt gecombineerd in Groningen door een BG/P supercomputer. Momenteel zorgt een ~ 100 node cluster voor de opslag en verder offline verwerking van de data. Dit cluster wordt dit najaar uitgebreid tot 2 PByte storage en 20 TFlops aan rekencapaciteit.

Andre Gunst

André Gunst is geboren in 1972 in Havelte. In 1999 ontving hij zijn diploma in Elektrotechniek van de Universiteit Twente in Enschede. Sinds 1999 is hij werkzaam bij Stichting ASTRON. Hier heeft hij gewerkt aan een IF naar digitaal omzetter en DSP's voor een demonstrator van een volgende generatie radiotelescoop (SKA). Verder heeft hij onderzoek gedaan naar de effecten van quantizatie en commerciële A/D omzetters in radiotelescopen. In 2000 werd hij betrokken bij het internationale ALMA project. In het begin van 2002 is hij wetenschappelijk projectleider van ALMA voor ASTRON geworden. Vanaf 2004 is hij ook werkzaam voor het LOFAR project. Hierin was hij verantwoordelijk voor het aansturen van een team dat samen werkte aan de ontwikkeling van de architectuur, hardware, firmware en software van een LOFAR station. Later in 2007 is hij ook verantwoordelijk geworden voor de teams die de antennes van LOFAR ontwikkelden, het netwerk en de centrale systemen van LOFAR. Momenteel tijdens de bouw van LOFAR is hij verantwoordelijk voor de bouw van het netwerk en het centrale gedeelte van LOFAR. Daarnaast geeft hij momenteel technisch leiding aan de ontwikkeling van het UniBoard, een generiek complex bord met veel rekenkracht en een hoge bandbreedte.


Codegeneratie

Met de komst een nieuwe HPC-architectuur moet een computerprogamma vaak aangepast en geoptimaliseerd worden voor die architectuur. Verschillende optimalisaties kunnen zonder tussenkomst van een gebruiker of programmeur door een compiler doorgevoerd worden. Dit geldt niet voor zaken als bijvoorbeeld de relatie tussen data-layout en memory hierarchie, waar een programmeur veel betere resultaten behaalt dan een compiler. Dit geldt in het algemeen voor zaken waarvan het abstractie niveau binnen een gebruikte programmameertaal niet uitgedrukt kan worden.

Bij een relatief klein programma kunnen de vereiste aanpassingen handmatig aangebracht worden, maar voor een grootschalig model of simulatie, bestaande uit honderdduizend of meer regels code, wordt dit problematischer. Dit geldt zowel voor onderhoud als correctheid. Toch zijn die aanpassingen vaak noodzakelijk om het uiterste uit de computer te halen. Immers, als je ze achterwege laat, had je ook een langzamere, en daarmee vaak goedkopere machine kunnen kopen.

Om dit op te lossen doen wij onderzoek aan het automatisch genereren van code. Daarbij gaan we uit van een soort wiskundige specificatie van het probleem of model. Met een zogeheten application driver wordt deze specificatie omgezet naar een code, die geoptimaliseerd is voor de betreffende architectuur.

In deze presentatie zal ik aan de hand van voorbeelden laten zien waarom codegeneratie van belang is, hoe wij dit aanpakken, en ook resultaten tonen, waaruit blijkt dat codegeneratie nog meer voordelen met zich meebrengt.

Lex Wolters

In 1989 is Lex Wolters gepromoveerd in de Natuurkunde aan de Universiteit Utrecht. Momenteel werk ik als univerversitair hoofddocent Informatica aan het LIACS van de universiteit Leiden. Ik doe al ruim 25 jaar onderzoek op het gebied van High Performance Computing en Computational Science. Doel hierbij is om te onderzoeken op welke wijze grootschalige, vaak productie, codes, zoals bijvoorbeeld numerieke weersverwachtingssytemen, efficient geexecuteerd kunnen worden op de nieuwste computerarchitecturen.



Networking en Cloud Computing

High Performance Computing kent vele aspecten en stelt ons in staat om nieuwe toepassingen te ontwikkelen; grote hoeveelheden data kunnen doorzocht worden, complexe analyse kunnen snel tot stand komen en complexe bedrijfsprocessen kunnen efficiënt ondersteund worden. Maar de daarvoor benodigde kennis en capaciteit behoort niet tot core business van veel organisaties. Vandaar een toenemende tendens tot outsourcing, cloud computing, en gebruik van services. Wat zijn de belangrijkste trends op dat gebied en hoe stellen deze trends ‘normale’ bedrijven in staan om High Performance Computing in te zetten zonder astronomische bedragen en grote IT afdelingen. En welke gevolgen hebben deze technologische ontwikkelingen op organisaties?

Floris van den Dool, Technology Consulting Lead, Accenture

Ing. Floris van den Dool is als Executive Partner verantwoordelijk voor de Technology Consulting praktijk van Accenture in Nederland. Hij heeft meer dan 20 jaar ervaring binnen de IT in binnen en buitenland. Na zijn Bachelor in Technische Computerkunde is hij gaan werken bij Digital Equipment Corporation en vervolgens bij Price Waterhouse waar hij de post-doctorale opleiding IT Auditing aan de Erasmus Universiteit gevolgd heeft. Sinds 2004 is hij als Partner verbonden aan Accenture, waar hij tevens leiding geeft aan de Information Security groep binnen Europa, Afrika en Latijns Amerika. Floris is als part time docent verbonden aan de Erasmus Universiteit Rotterdam waar hij binnen de post-initiële opleiding IT Auditing de vakken Informatie Beveiliging en Computer Architecturen en Besturingssystemen doceert. Hij treedt regelmatig op als spreker in binnen en buitenland.


The challenge of exploiting hardware processing potential

Moore’s law is not reflected in our daily experience. The responsiveness for similar software applications has by no means decreased exponentially in time for successive systems. One reason is that the hardware processing potential of a given system is hardly ever fully exploited by software. This presentation will look back in time at some major hindrances and improvements to (partially) overcome them. The suitability for exploitation will be focused upon, starting from real-time embedded systems such as DVD-recorders, to modern multi-core PCs and GPGPUs.

Ton Kostelijk

Ton Kostelijk is a system architect at Philips Applied Technologies, Eindhoven. He enjoys in particular the complexity of synergetic multidisciplinary development and people, where his modeling skills and interpersonal skills come in handy. An example is system performance, where e.g. electronics, software and mechanics are combined. Next to his technical role, he is also a teacher (TUE), coach, project assessor and consultant. He received his masters in physics in 1985 at the Free University in Amsterdam. He joined Philips Research in the field of CAD research for ICs, finished by a PhD in 1994. He became Chief SW architect for Digital Set-top Boxes until 1999. As a system architect he contributed to TVs, DVD-Hard disk recorders and BluRay players. The last 5 years his focus is on various professional systems, mostly based on PC systems.


Supercomputing in Nederland

Sinds 1984 huisvest en beheert SARA de nationale supercomputer en ondersteunt SARA wetenschappelijke onderzoekers bij het optimaal gebruik hiervan. Dit roept meteen een aantal vragen op:

  • Wat is nu eigenlijk een supercomputer?
  • Waar worden supercomputers voor gebruikt?
  • Hoe zien supercomputers eruit?
  • Waar staat Nederland ten opzichte van Europa en de rest van de wereld?

We blikken terug op meer dan 25 jaar supercomputing in Nederland maar werpen tevens een blik op de toekomst.

De rekensnelheid van moderne supercomputers wordt uitgedrukt in TeraFlop/s of zelfs PetaFlop/s. Met een aantal simpele voorbeelden kunnen we een idee geven hoe onvoorstelbaar snel dit eigenlijk is. Sommige mensen denken dat je alle rekenintensieve problemen kan oplossen door bijvoorbeeld een cluster met grafische kaarten (GPU's) of PlayStations te bouwen. Hoewel dit voor sommige problemen de meest (kosten)efficiënte oplossing zal zijn, is daarmee het omgekeerde natuurlijk niet automatisch waar: er zijn veel meer wetenschappelijke problemen waar je zonder de hulp van een echte supercomputer nagenoeg kansloos bent. Aan de hand van twee voorbeelden (onderzoek op het gebied van klimatologie en kosmologie) zal een indruk worden gegeven van wetenschappelijke Grand Challenges die heden ten dage nog net oplosbaar zijn op de snelste beschikbare supercomputers.

Walter Lioen

Walter Lioen is Groepsleider Supercomputing bij SARA Reken- en Netwerkdiensten, het nationale HPC en e-Science support center. SARA ondersteunt onderzoek in Nederland door het aanbieden van de meest geavanceerde diensten en expertise op het gebied van grootschalig rekenen, geavanceerde netwerken, dataopslag, visualisatie en e-Science support. Bij SARA gaan geavanceerde infrastructuur, dienstverlening, expertise en ondersteuning, en innovatie en ontwikkeling hand in hand.

Bij SARA is Walter Lioen verantwoordelijk voor de nationale Supercomputing-dienstverlening (Huygens). De Supercomputing Groep is naast het operationeel beheer verantwoordelijk voor de gebruikersondersteuning. Daarnaast participeert Walter in DEISA en PRACE, twee Europese projecten. Binnen DEISA is hij lid van de Application Task Force. Binnen PRACE is hij task leader Efficient Use of PRACE Systems.

Walter Lioen studeerde wiskunde aan de Universiteit van Amsterdam (UvA) en werkte vanaf midden jaren tachtig als wetenschappelijk programmeur bij het Centrum voor Wiskunde en Informatica (CWI) en heeft in die hoedanigheid vrijwel alle supercomputers in Nederland gebruikt. Vanaf 2001 werkte hij als software engineer bij Data Distilleries en SPSS. Vanaf 2007 is hij werkzaam bij SARA en ondersteunt hij wetenschappelijke onderzoekers bij het optimaal gebruik van supercomputers.