Suche
Kategorien
Getaggte Artikel
Impressum
Max-Planck-Ring 6d
98693 Ilmenau
Tel./Fax: +49 3677 691929
info@fem.tu-ilmenau.de
www.fem.tu-ilmenau.de
Vertretungs-
berechtigter Vorstand:
Vorsitzender:
Adrian Schollmeyer
Stellvertretender Vorsitzender:
Robin Lehmann
Schatzmeisterin:
Anna Brede
Stellvertretender Schatzmeister:
Maximilian Klook
Registergericht:
Amtsgericht Ilmenau
Registernummer: 120483
Datenschutzerklärung
Verwaltung des Blogs
Artikel mit Tag fem + istuff
Verwandte Tags
Dekadenz verein kerzen christbaum radio weihnachten mailinglisten computer pyramide mail betriebsraum hsf nikolaus netzwerk vereinskommunikation Marketing keller messe welt-aids-tag Events stura kinder-kult fem bergfest pegelmolch ilsc iswi marketing ehrenamt technik putzen e-mail funkwerk interview mv 2012 ccc snt 2007 25c3 events c3 streaming Streaming kandidaten vorstandSaturday, 23. June 2012
Floorball statt Fussball-EM
Samstag, den 23.6.2012:
Heute sind wir in Dresden beim International Floorball Congress 2012. Und das bedeutet für uns, zumindest im Vorfeld, jede Menge Arbeit, wenig Schlaf und gereizte Nerven... Letzte Nacht waren wir dann bis kurz nach 12 in der Halle und waren dann noch wach bis 2-4 Uhr, je nachdem, wie nötig der Schlaf war.
Nach einer dementsprechend kurzen Nacht ging es heute Morgen pünktlich um 7 Uhr wieder in die Halle und wir konnten noch vor Beginn der ersten Spiele die wichtigsten Dinge umsetzen. Danach blieb Zeit für Spielereien. Die Bauchbinden, deren Software Danny die ganze Nacht noch zurechtgeschrieben hat, wurden animiert und auch die Replay-Funktion der Kameras haben wir ausprobiert. Super Sache! Wir hoffen, euch hat unsere Mischerei schon heute gefallen und ihr schaltet auch morgen wieder ein.
Sonntag, den 24.6.2012:
Nachdem die Halle geschlossen wurde, haben wir uns gestern Abend auf die Suche nach einem leckeren Abendessen gemacht. Weil wir unsere Mensa so vermisst haben, zog es uns hier zu der Kopie. In der Bierstube fand dann jeder was Leckeres und über das Bier konnte sich auch keiner beschweren.
Es stellt sich immer mehr als Vorteil heraus, dass wir nur einen Technik- und einen Personentrapo haben. Selbst AnEs und Kümmel sind somit immer schön pünktlich in der Halle und alle geplanten Tippspiele auf ihre verspätete Ankunftszeit mussten leider ausfallen. Zu groß ist die Angst der beiden, den weiten Weg von der Schlafturnhalle zur Floorballhalle mit dem ganzen Gepäck und zu Fuß zurücklegen zu müssen. Ganz zu schweigen von Kümmels Orientierungssinn, der ihn ja das letzte Mal schon so weit geführt hat, dass er auf der Suche nach einem Zigarettenautomaten völlig die Orientierung verloren hat und ein Taxi zurück zur Halle nehmen musste.
So konnte unser Tagesgeschäft pünktlich um 8 Uhr wieder starten. Neben den Finals haben wir auch noch Interviews mit einigen Spielern aufgenommen. So bekam auch endlich unsere Schulterkamera Zoidberg seinen großen Auftritt. Vorher stand der nur einsam am Spielfeldrand.
Für die beiden letzten Finals (Spiel um Platz 3 und um Platz 1) mussten wir dann nochmal schnell umbauen. Die zwei Kleinfelder, auf denen bisher gespielt wurde, wurden zu einem Großfeld zusammengebaut. Das bedeutete für uns, das wir unsere Kameras neu positionieren mussten. Als das geschehen war, konnten die Spiele beginnen.
Monday, 2. January 2012
28C3: Review (englisch version)
By wide request of the crowd here is a translation of the 28C3 review article.
It is done already. After two months of preparation, 13 people attending the 28C3 and others outside have done the streaming & recording of the 28C3. The 97 events were streamed in 7 different formats, with 27 concurrent streams in total and distributed by 39 relay servers. HTTP live streaming alone generated more than 10 TBytes of traffic. The raw video data takes about 1.8 TBytes on our harddisks.
Day 1
In beginning of the first day streaming was characterized by problems with the network outside the BCC, which also created the most traffic for our support tickets during the whole 28C3. The network problems were caused by dropped peerings. As the network had different uplinks, some of them happend to get disconnected by incomplete routing tables. It was fixed, at least for us, by the NOC by assigning our subnet to a stable uplink. As we never encountered that problem again on the C3, the stream went outside the bcc without any further problems.
We also had to explain why the HTTP Live Streaming, a new service this year, did not work on some devices and media players: Except from products from apple and the VLC-1.2pre release, no player/browser supports that format, maybe because it is relatively new. But with its architecture it was really simple to generate additional playlists and reuse the live streaming snippets for on-demand streaming.
Day 2
On day 2 we have started with the release process and were really productive from the beginning, so we were able to release some recordings two hours after the end of an event as torrent file, a personal record. This worked pretty well until the end of the congress, at the end we released all audio files before we left Berlin.
Also some script kiddies had some fun and kept our streams overview site from working with a lot of concurrent connections. Unfortunately this was bad timing, as both of the webmasters were outside of the bcc, grabing something to eat and only had their voice mail answering us. When one of them finally got back to our VOC, he found over 17 Gbytes of error log, which he archived instantly to /dev/null. After some webserver configuration tweaks the page was back online, performing well. For the remaining time of the congress it didn't cause any more problems.
A nice piece of our infrastructure is the slides-only stream, displaying slide snapshots at maximum rate of 2 per second, which is also available while other streams show the pause screen. So it happened between two lectures that a blue screen was displayed for several minutes - we actually stream everything.
Day 3
During a C3 it is usually quite warm in the VOC, because we are door to door with the server room and because of being on the highest floor of the bcc, the warm air is coming upwards to us. On day 1 and 2 it was still comfortable, but on day 3 the temperatures were rising. One of our H.264 encoders did not like that. As a first countermeasure we removed the cases of the Shuttle Barebones and moved our ventilator from the VOC to the service room to increase the air flow. This caused a cooldown of the encoders by 12°C, but did not solve the actual problem. After some investigations we suspected the HDD of doing nasty things, replacing it however solved the problem for the remaing congress.
Furthermore on day 3: the traditional fefe peak! The "Fnord-Jahresrückblick", one of the usually most awaited lectures, brought us a peak of at least 3.500 clients watching the streams of Saal 1 concurrently. Sumed up with the other lectures there were at least 4.100 clients watching the streams at this time (again personal record!).
At the end of the day we did some hands-on during the concert. We wanted to contribute our experiences with cameras and live video mixing to get some motion into the video, which can be essential for a concert.
Our Setup
There were some modifications to the setup during the congress. We extended our streaming with additional formats, some of them planned before and some of them spontaneously. At the beginning of the congress we were streaming in WMV, H.264 via RTMP, HTTP Live Streaming (H.264 in MPEG-TS) and slides-only. Additionally the streaming team of CCCamp2011 set up some infrastructure for Ogg/Theora that was fed with our signals. Later there was an audio-only Ogg/Vorbis stream that was embedded in the webpages of the slides-only stream. One of the spontaneously evolving streaming formats was the ASCII stream, playable via telnet client, that was on top of the wish list in the 28C3 event wiki.
There were quite some ressources necessary for monitoring all the signals and servers. The visual monitoring of the video signals from Saal 1 to 3 was done with 6 SDI CRT monitors being placed in the VOC. For relaying the RTMP streams we used a small tool called crtmpserver, which had the bad habit of stopping distribution when there was no connection to the stream source, which could only be fixed by restarting the daemon. To get aware of such situations, a dedicated laptop showed a webpage with all RTMP streams from all relay servers simultaneously. The 36 flash players in total consumed so much CPU power that the streams degraded to slide shows, but it was just enough for monitoring. For RTMP distribution the original plan consisted of a mix of erlyvideo and crtmpserver, but during 28C3 we migrated all relay servers to use crtmpserver since this software showed a much better performance than erlyvideo did in 2010. Only the relay for the "No Nerd Left Behind" stations was left running erlyvideo, since the number of clients was low enough to benefit from the uninterrupted delivery that erlyvideo can provide.
In the meantime our infrastructure was partially setup again in Ilmenau to complete the encoding of the remaining files. These should be all available by now via FTP, HTTP and Torrent. See Documentation page in the event wiki.
We love Cats
In the night between day 3 and 4 we were streaming the nyan cat to make some important latency tests (the nyan cat page shows a seconds counter) and reached a score of 33'904.9 seconds. The stream was distributed via DVB-T to the TV sets in the BCC as well and was playing through the night (partially with audio) which cheered some people up. It was noted in the subsequent Q&A session that FeM supports "No Cat Left Behind". By the way: no animals were harmed during the test. (But maybe some humans)
Feedback and support requests
Our main purpose was the streaming and recording of the events, but we also got some slightly unrelated requests. E.g. we got calls from people which needed some special cables. And we got endless questions about the track which was played between the events. For everyone who still doesn't know: it's "Machine Lullaby" by "Fear of Ghosts". The question why $player does not support HTTP Live Streaming was answered already. Most problem reports about non-working streams were not as easy to answer as the reporter may have thought it would be (see stats in the beginning of this article to get an idea about it). Sometimes it was just a bad connection or route on the client side. Or the bad idea of watching streams and leaching files simultaneously.
But we did not only receive support requests.
Especially some comments of viewers, which let us smile: "Internet works. WLAN works. Streaming works. How shall we develop a congress feeling with that setting?c3streamingc3infodesk No, you're great!"
Many Thanks
We would like to thank a few organizations, which made it possible to build and use this year's streaming and recording infrastructure. In specific: ErgoDATA GmbH, Selfnet e.V., ATekoN e.V., Hetzner AG, 1HE-Server.com, the TU Ilmenau - notably the computing department and their chief network technician, the Institut für Medientechnik and the room equipment team - and others, not named specifically.
Also thanks to the CCC for running this well organized event, the FOOD team for not letting us die of starvation, the NOC team for their tremendous work, the guys from BCC technical services for helping us anytime and Nick Farr for entertainment and Club-Mate.
We also want to thank all those who were pointing out problems while we were busy with streaming and solving occurring problems. We always tried to monitor everything, but did not always had the time to watch, so it would not be possible without external help.
And we thank all we've forgotten to mention, all speakers and all viewers outside on the internet. See you probably at 29C3, whereever it will take place.
If you liked our work, you may consider to thank us with a small donation.
Tuesday, 27. December 2011
28C3: Rückblick
Schon wieder ist es erst einmal vorbei. Nach zwei Monaten Vorbereitungszeit haben es 13 Leute vor Ort und weitere Helfer geschafft, das Streaming & Recording des 28C3 zu stemmen. Bei den 97 gestreamten Veranstaltungen, welche in sieben verschiedenen Formaten übertragen wurden, fielen nicht nur 27 Streams gleichzeitig an, welche durch 39 Server verteilt wurden, sondern auch allein an HTTP-Traffic kamen ca. 10 TByte zusammen. Die Aufnahmen aller Veranstaltungen nehmen außerdem übrigens ca. 1,8TB an rohen Videodaten (DV) in Anspruch.
Tag 1
Der Beginn des Streamings am ersten Tag war durch Probleme mit dem Netzwerk geprägt und verursachte auch das meiste Aufkommen an Supportarbeit während des C3. Die Netzprobleme hatten ihren Ursprung in einem wegfallenden Peering nach außen. Da der Netzplan des NOC mehrere Uplinks vorsah, kam es vor, dass wir ab und zu diesem wegfallenden Peering zugeordnet waren. Gefixt wurde das Problem, zumindest für uns, durch feste Bindung unseres Subnetzes an ein stabiles Peering. Während des Restes des C3 konnten wir danach keine weiteren derartigen Probleme ausmachen.
Weiterhin mussten wir oftmals erklären, warum das HTTP-Streaming (neu in diesem Jahr) bei einigen Leuten nicht oder nicht richtig funktionierte. Dies lag meist einfach daran, dass außer Apple-Produkten und dem VLC-1.2pre dieses Format von keinem Browser oder Videoplayer richtig unterstützt wird und daher auch (noch) relativ unbekannt ist. Anhand der Videoschnipsel und zusätzlich generierten Playlisten war es uns möglich, ein on-demand HTTP-Live-Streaming anzubieten.
Tag 2
Am Tag 2 konnte der Release-Prozess von uns gestartet werden und war auch sehr produktiv, was man unter anderem daran merkte, dass Videos schon zwei Stunden nach Ende des Vortrages als Torrent veröffentlicht wurden. Dies funktionierte auch durchgehend bis zum Ende des Kongresses gut, so dass wir zumindest Audio bereits komplett fertig released hatten, als wir Berlin verließen.
Spaß hatten wir auch mit ein paar Scriptkiddies, welche die Übersichtsseite der Streams durch "einige" gleichzeitige Verbindungen lahm gelegt haben. Und der Zeitpunkt war günstig gewählt, da beide Administratoren gerade extern Essen waren und nur die Mailbox mit uns reden wollte. Als dann endlich wieder einer Anwesend war, stellte er schnell fest, dass der Errorlog bereits 17 Gbyte überschritten hatte, welche erstmal in /dev/null archiviert wurden. Die Konfiguration des Webservers wurde daraufhin angepasst und kam danach besser mit den Anfragen klar, der Rest des Kongresses verlief ohne weitere Probleme in dieser Richtung.
Eine schöne Sache an unserer Infrastruktur ist ja der Slides-Only-Stream, welcher auch die Bilder des Beamers abgreift, wenn auf den anderen Streams nur das Pausenbild eingeblendet wird. So ergab sich während einer Pause, dass das Bild eines Bluescreens für mehrere Minuten sichtbar war - wir streamen halt alles.
Tag 3
Für gewöhnlich ist es ja recht warm bei uns im Video Operation Center (VOC), da die ganzen Server dort stehen und die entsprechende Tür regelmäßig geöffnet wird. Zusätzlich zieht natürlich auch die ganze warme Luft des bcc zu uns hoch. An den ersten zwei Tagen ging das noch gut und es war eine angenehme Temperatur. Am dritten Tag jedoch, wurde es langsam wärmer, so dass irgendwann einer unserer H.264-Encoder ein Problem damit hatte. Zuerst entfernten wir das Gehäuse und verlegten den Ventilator aus dem VOC direkt in den Betriebsraum, um die Luftzirkulation zu verbessern. Alles dies brachte zwar immerhin eine Temperaturreduktion von 12°C, half jedoch nicht das Problem zu beseitigen und es stellte sich heraus, dass die Festplatte vermutlich am sterben war. Ein Austausch der Festplatte löste das Problem jedenfalls bis zum Ende des Kongresses.
Außerdem am Tag 3: Der schon fast traditionelle fefe-Peak! Der wohl meist erwartete Vortrag, "Fnord-Jahresrückblick", war in der Spitze mit ca. 3.500 Zuschauer gleichzeitig in Saal eins gesegnet. Zusammen mit den anderen beiden Sälen haben wir zu diesem Zeitpunkt insgesamt ca. 4.100 Zuschauer gleichzeitig bedient.
Zum Schluss des Tages haben wir beim Konzert auch mal selbst Hand angelegt. Wir wollten unsere Erfahrung im Umgang mit den Kameras und dem Videomischer auch einmal einbringen - immerhin beschäftigen wir uns im Verein schon jahrelang damit - und ein Konzert lebt schließlich auch von Dynamik, welche nicht ganz so einfach zu handhaben ist, wenn die Erfahrung für solche Situationen fehlt.
Setup
Am Setup hat sich im Laufe der Tage auch ein bischen was geändert. Wir haben zusätzliche Formate hinzu genommen (geplante und ungeplante) und damit natürlich auch zusätzliche Streams betreuen müssen. Zuerst sind wir mit WMV-, H.264 via RTMP-, HTTP- und Slides-Only-Stream gestartet. Zusätzlich wurde am Tag 1 vom Streaming-Team des CCCamp2011 eine Infrastruktur für OGG/Theora hingestellt, welche mit unserem Signal befüllt wurde. Als Weiteres kam dann der Audio-Only-Stream hinzu, welcher auch direkt auf den Slides-Only-Stream-Seiten eingebaut wurde. Aber auch spontane Ideen, wie einen ASCii-Stream via telnet anzubieten (aus der Wunschliste des 28C3-Kongresswikis), konnten wir umsetzen.
Das Monitoring betrieben wir über sechs SDI Monitore, welche jeweils alle Signale von Saal 1 bis 3 Live im VOC zeigten. Außerdem haben wir einen RTMP-Check über einen Laptop gefahren, der die Signale aller 12 RTMP-Server gleichzeitig angezeigt hat. Damit konnten wir prüfen ob noch alle 36 Signale im Netz verfügbar waren. Die Anwendung selbst war nicht trivial, da alles Flashplayer waren und CPU und RAM damit entsprechend gut ausgelastet waren. Der verwendete Crtmpserver - zum Verteilen der RTMP Signale - hatte die Angewohnheit, bei Signalverlust zum Encoder kein Bild mehr auszuliefern und musste deshalb im Zweifelsfall neugestartet werden. Ursprünglich hatten wir ja ein Setup mit einer Mischung aus Erlyvideo und Crtmpserver geplant. Diese wurde allerdings während des 28C3 schrittweise fast komplett auf Crtmpserver umgestellt, da dieser besser skalierte als die Erlyvideo-Variante, die wir bereits 2010 verwendet haben. Einzig ein Erlyvideo-Verteiler blieb aufgrund der Laufzeitstabilität übrig, welcher die Streams für die "No Nerd Left Behind" auslieferte.
Die Infrastruktur wurde gerade teilweise wieder aufgebaut und wird in der nächsten Zeit den Rest des Materials encodieren. So sollten die restlichen Formate und fehlenden Vorträge bald online sein. Einiges wird ein wenig länger dauern, da diese noch manuell nachbearbeitet werden müssen und speziell über Silvester niemand von uns so wirklich Lust hat sich dran zu setzen.
Katzen
Übrigens haben wir in der Nacht von Tag 3 auf 4 für Latenztests die Nyancat laufen lassen (Gesamt: 33904.9 Sekunden). Dies wurde auch über die DVB-T Bildschirme im BCC ausgestrahlt und lief dort durchaus mit Ton die Nacht durch und erfreute sich großer Beliebtheit. In der anschließenden Q/A-Runde im IRC wurde dann auch festgestellt, dass FeM die Aktion "No Cat Left Behind" unterstützt. Bei der Aktion wurden im übrigen keine Tiere verletzt.
Support
Auch wenn wir eigentlich nur für das Streaming und Recording zuständig sind, bekamen wir öfters Anfragen, welche eigentlich nichts mit dieser Arbeit zu tun haben. So wurden wir angerufen, wenn Leute bspw. mal ein Kabel brauchten. Außerdem hatten wir unzählige Anfragen, nach dem Track, welcher zwischen den Vorträgen abgespielt wurde. Wer den noch immer sucht dem sei es nun gesagt: "Machine Lullaby" von "Fear of Ghosts". Die Frage warum $Player das HTTP-Live-Streaming nicht unterstützt, haben wir ja oben schon einmal erwähnt. Ein Hinweis auf einen nicht funktionierenden Stream war nicht so trivial nachzuvollziehen, da es pro Saal neun verschiedene Streams gab, welche über mehrere Server verteilt ausgeliefert wurden. Manchmal lag es aber auch an der eigenen Verbindung der Anfragenden bzw. einer schlechten Route.
Aber nicht nur Supportanfragen haben uns erreicht.
Auch Dank der Zuschauer und Kommentare, welche uns zum Schmunzeln brachten: "Internet tut. WLAN tut. Streaming tut. Wie soll denn da Congressfeeling aufkommen?c3streamingc3infodesk Nein, ihr seid spitze!"
Dank
Abschließend möchten wir uns natürlich noch bei einigen Institutionen bedanken, welche es möglich gemacht haben die Infrastruktur aufzubauen bzw. zu benutzen. Dies wären: ErgoDATA GmbH, Selfnet e.V., ATekoN e.V., Hetzner AG, 1HE-Server.com, die TU Ilmenau - insbesondere das Rechenzentrum und dessen Cheftechniker, dem Institut für Medientechnik und der Hörsaaltechnik - und Andere, welche nicht näher genannt werden wollen.
Wir möchten uns aber auch bei all denjenigen bedanken, die uns auf Fehler während der Übertragung oder sonstige Probleme aufmerksam gemacht haben. Wir versuchen zwar alles selbst zu überwachen, aber es ist halt manchmal aufgrund anderer Aufgaben schlichtweg nicht machbar.
Monday, 26. December 2011
Tag 0 - ruhiges Fahrwasser
Jedes Jahr der selbe Spaß, mitten in der Weihnachtszeit finden sich am 26. Dezember gegen 8 Uhr morgens einige FeMies zusammen, um sich gemeinsam ein paar "erholsame" Tage in Berlin zu gönnen. Fast alle erschienen diesmal sogar pünktlich. Die Anderen hatten bereits letzte Nacht zu wenig Schlaf und kamen, grob nach den Zeiten der vergangenen Jahre abgeschätzt, zu spät, da wir bereits gegen neun mit dem Einladen fertig waren. Vorherige Kontaktversuche via Telefon scheiterten, da der Betroffene dies als Wecksignal betrachtete und uns dementsprechend einfach wegdrückte. Nachdem wir dann endlich los fuhren und gerade auf die Autobahn gefahren waren, bekamen wir auch schon einen Anruf vom Technik-Trapo, in welchem nachgefragt wurde, ob wir die T-Shirts mitgenommen hätten. Da dies keiner bei uns beantworten konnte, mussten wir diesbezüglich bis zur Ankunft in Berlin im Ungewissen bleiben. Zum Glück waren sie dabei, ansonsten könnten wir unsere diesjährigen Eventshirts nicht auf dem Event präsentieren.
Traditionell holten wir eines unserer Mitglieder aus der Nähe von Leipzig ab. Da dieses jedoch nicht auf sein Handy reagierte und nur die Mailbox antwortete, entschieden wir uns direkt zu klingeln. Seine Mutter antwortete leicht geschockt mit: "Oh, der liegt noch im Bett.", als wir nach ihm fragten. Ernüchterung machte sich breit, da der Zeitvorsprung zu den vergangenen Jahren doch wieder zu schrumpfen begann. Nachdem wir ca. eine halbe Stunde gewartet hatten, stieß er endlich zu uns und wir konnten ohne weitere Stops die Fahrt fortsetzen.
Endlich im BCC angekommen mussten wir am Technik-Trapo feststellen, dass dort bereits fleißig gewerkelt wurde und er schon leer war. Wirklich unglücklich waren wir über diese nicht geteilte Arbeit nicht. Die Technik wurde nun auf die drei Säle verteilt und gemäß Schaltplan verkabelt. Dies funktionierte auch bis auf zwei Defekte Kabel ganz gut und war relativ schnell erledigt. Überhaupt ging die Verkabelung heute schnell von statten, sodass wir bereits gegen 19 Uhr die ersten funktionierenden Streams hatten. So schnell waren wir bisher noch nie fertig und so nutzten wir die Chance, den Aufbau vor Ort nochmals durchzutesten. Es bestand auch wesentlich mehr Zeit die kleinen, bisher noch unfertigen Dinge, wie z. Bsp. die Streaming-Webseiten, fertig zu stellen. Im VOC hatten wir viel Spaß und erfreuten uns an Aussagen wie: "Ich dachte eigentlich, dass richtige Image gelöscht zu haben.", nachdem die Nagios-VM irgendwie einen Stand vom 9. Dezember erreicht hatte. Ein bisschen Action darf halt nicht fehlen, ebenso wenig wie ein paar defekte Geräte. Dieses Jahr wurde der Wasserkocher beim Transport entschärft. Die Kreuzschiene vom letzten Jahr konnte uns diesmal zumindest zum C3 nicht ärgern, da sie bereits vorher mit dem selben Fehler wie letztes Jahr wieder an den Hersteller geschickt wurde.
Es hat dieses Jahr mit der Planung erstaunlich gut geklappt. Kaum Probleme und im VOC haben wir diesmal sogar ausreichend Platz zum Sitzen (die Planung dazu wurde Donnerstagnacht spontan in einer ca. 3-stündigen Diskussion über die verschiedensten Möglichkeiten, Ausmessen der Pläne und grobem Schätzen durchgeführt - es endete damit, dass wir uns Tische ausgeliehen und mit ins BCC gebracht haben, um den Raum optimal ausnutzen zu können, dass Ergebnis ist jedenfalls sehr angenehm). Unser VOC ist übrigens dieses Jahr mit 10 Gbit/s an das NOC angebunden.
Auch unser alljährlich abendliche Ausflug am Tag 0 zum Steakhaus durfte natürlich nicht fehlen. Dort stärkten wir uns, um den restlichen Abend weiter an unseren Baustellen zu arbeiten, denn natürlich ist die Arbeit damit noch nicht abgeschlossen, es müssen noch einige Dienste eingerichtet werden, an das Netz angepasst und im kompletten Aufbau getestet werden. Wir wollen zumindest sicher sein, dass die Signale überall dorthin kommen, wo sie auch hin sollen. Am Ende sollen die Slides-Only-, H264-, WMV-, HTTP- und Audiostreams laufen sowie die Signale für die OGG/Theora-Streams und DVB-T bereitstehen, damit sie von den entsprechenden Teams abgegriffen werden können. Für euch soll also eine große Bandbreite an verfügbaren Formaten zur Verfügung stehen. So endet ein ruhiger Tag 0 mit Fehlerbehebungen und Verbesserungen, welche wir derzeit noch durchführen. Viel wird nicht mehr passieren, deshalb ist der Eintrag für heute zu Ende und morgen geht es dann endlich los. Wir werden sehen, was die Vorarbeit gebracht hat.
Wednesday, 21. December 2011
Vorbereitungen zum 28C3 Streaming
Es sind noch 5 Tage bis wir in Berlin aufbauen, deshalb ein kleiner Bericht zur Vorbereitung für euch.
Dieses Jahr läuft es auch erstaunlich gut, was die Vorbereitungen betrifft. Unsere Pipeline steht und funktioniert wie gewünscht, genug Rechenpower vor Ort zum Encodieren der Videos ist auch vorhanden. Wir haben also hoffentlich von Tag 0 an alles bereit und können, wenn nichts mehr schief geht schon ab dem ersten Tag releasen. Zum Vergleich: letztes Jahr hatten wir diesen Stand erst an Tag 4 erreicht. Dies liegt vermutlich daran, dass wir unsere Setup von Jahr zu Jahr verbessern, aber auch daran, dass wir zur Vorbereitung dieses Jahr das iWUT (Ilmenauer Weihnachts Unihockey Turnier) genutzt haben und dort einen ganz ähnlichen Aufbau verwendet haben.
Neu dieses Jahr wird HTTP Live Streaming sein, welches den Stream in 8 Sekunden lange Teile segmentiert und über eine Playlist anbietet. Unterstützt wird dieses Verfahren von iPhone und co., Mac OS X ab 10.6 und VLC ab Version 1.2. Andere Player spielen dies zwar auch ab, laden aber die Liste im Hintergrund nicht nach, so dass es etwas stocken könnte, bzw nach Ablauf der Playlist zuende ist.
Dieses Jahr wird fast alles über SDI gemacht und der Weg fortgeführt, den wir letztes Jahr eingeschlagen haben. Vor nichtmal einem Monat haben wir drei neue Digital-Kameras angeschafft, wodurch wir von der Quelle bis zur Aufzeichnung für Saal1 komplett digital arbeiten. In den anderen beiden Sälen wird hinter den Analog-Kameras ein A/D-Wandler geschalten, so dass ab diesem ebenfalls alles über SDI läuft. Dazu passend, haben wir inzwischen auch genug SDI-Monitore, um die Bilder alle abgreifen zu können. Dies wird zwar zu etwas mehr Platzbedarf in der Regie führen, dafür sollte es mit der uns verfügbaren Technik aber die beste Bildqualität bieten.
Konferenzraum mit AV-Testsystem
Durch dieses kleine Kabel müssen die 8Gbit
So langsam ist auch alles lokal vorbereitet - die Technik, welche während des C3 in Ilmenau bleibt, ist verbaut. Gerade haben wir einige Server im NSP0 (der Serverraum im Rechenzentrum, welcher direkt am Uplink nach außen hängt) abgeladen. Damit haben wir neben den 3 GBit/s an bestehender eigener Technik weitere 5x 1 GBit/s nach draußen allein durch das Uni RZ der TU Ilmenau. Ergänzt werden unsere Anstrengungen auch in diesem Jahr wieder durch weitere Unterstützer:
- Hetzner AG aus Nürnberg (5x EX4-Server mit je 1GBit/s als Sponsoring)
- ATekoN e.V. aus Braunschweig (1GBit/s)
- Selfnet e.V. aus Stuttgart (WMV Verteiler mit 1GBit/s)
- ErgoDATA, für die Leihgabe eines 10Gbit/s Switches
- 1HE-Server
- und weitere nicht genannte Unterstützer.
Wir können es kaum noch erwarten uns endlich in Berlin einzurichten...
Thursday, 6. October 2011
FeM auf Abwegen - Ein Hausboot, 2 Tage, 13 Messehallen und gefühlte 3 Millionen Fahrräder
"FeM auf Abwegen - Ein Hausboot, 2 Tage, 13 Messehallen und gefühlte 3 Millionen Fahrräder" vollständig lesen
Sunday, 28. August 2011
Studentennetztreffen 2011 in Stuttgart (II)
Nach einer kurzen Pause betrat der Mann mit Hut, hadez, die Bühne. Hadez hat den Shackspace (Stuttgarter Hackspace) im Jahre 2009 mitgegründet und hat aus dieser Zeit und über deren Entwicklung berichtet. Nach weniger als 2 Jahren und einem zwischenzeitlichen Umzug in ein Gewerbeobjekt mit über 400qm Fläche wuchs die Mitgliederzahl von initial 23 auf weit über 100 an. Er erläuterte was es zu beachten gilt, wenn man einen solchen Hackspace aufziehen will.
Der Nachmittag stand im Zeichen von Sightseeing in der Stuttgarter Innenstadt. Der Verein Schutzbauten e.V. betreibt in Stuttgart viele Bunkeranlagen, welche der Bund nach dem Ende der Bedrohung durch den kalten Krieg abgestoßen hat. Der Tiefbunker wurde im zweiten Weltkrieg als Luftschutzbunker für mehrere Stunden geplant und besaß eine Kapazität von ca 2500 Plätzen. Während des kalten Krieges sollte dieser für längere, bis zu 14 Tage andauernde, Aufenthalte dienen und bot Platz für ca. 1200 Personen. Glücklicherweise wurde der Bunker allerdings nie genutzt. Lediglich nach dem Ende des 2. Weltkrieges beherbergte man dort mittel- und obdachlose Familien, deren Häuser und Wohnungen im Krieg zerstört wurden. Diese lebten dann bis zu 8 Jahre dort.
Nach der Führung führte uns unser Weg hinweg über Uni-Gelände zum Max-Kade-Haus, einem Wohnheim in der Stadt, welches vom Selfnet e.V. angebunden und betreut wird. Die Anbindung des Studentenwohnheimes außerhalb des eigentlich Einzugsgebietes des Vereins ergab sich in den Anfängen der Gründung als eine Art Bedingung seitens des Studentenwerkes. Das 15-stöckige Hochhaus bietet im obersten Stockwerk neben der tollen Aussicht über Stuttgart auch ein Studenten-Cafe/-Bar. Hier entstand auch das Gruppenfoto. Anschließend luden uns die Gastgeber zu einem leckeren Abendessen im "Brunnerz" ein.
Der Einladung von Hadez in den Shackspace folgten dann fast alle Teilnehmer noch und kamen so mit vielen Gleichgesinnten ins Gespräch. Neben einer Holz-/Metallwerkstatt, einem Elektronik-Labor beheimaten die Hacker auch ein Medienlabor (für Video- und Audiobearbeitung) und natürlich einen Serverraum, in dem vor allem die 24"-Schränke das Interesse einiger weckten. Gegen Mitternacht ging es dann mit U- und S-Bahn zurück zur Unterkunft, wo der Abend im NOC mit intensiven Gespräche über Datenbanken, den Brotfilm und anderen Nerd-Stuff endete...
Saturday, 27. August 2011
Studentennetztreffen 2011 in Stuttgart
Bereits am Donnerstag machten wir uns auf den Weg und kamen gegen 17 in Stuttgart an. Bei der Anmeldung in den Vereinsräumen der Gastgeber, auch liebevoll NOC (network operations center) genannt, wurden gleich einige Gemeinsamkeiten entdeckt: die Lage im Keller, eine blaue Couch und die gute Jura Nach kurzer Führung durch die Räumlichkeiten und den Betriebsraum übernahmen wir dann unsere Zimmer im Studentenwohnheim am Allmandring.
Nachdem im Laufe des Abends weitere Teilnehmer und einige bekannte Gesichter aus Mittweida, Chemnitz, Dresden, Nürnberg/Erlangen und München eintrudelten, wurde in gemütlicher Runde im Unithekle (einer Studenten-Bar) das ein oder andere Problem erörtert oder sich an alte Geschichten von vergangenen Studentennetztreffen erinnert.
Der Freitag begann entspannt um kurz nach 9 mit einem ausgiebigen Frühstück im Sonnenschein. Zu Beginn der folgenden Vorträge erzählte Bernd, Gründungsmitglied vom selfnet e.V., etwas aus der Geschichte des Vereines, der ursprünglichen Idee, der Motivation und der letztendlichen ersten Umsetzung.
Zwischenzeitlich stellten sich noch kurz die AG DSN (Dresdner Studentennetz) und St. Peter Nürnberg/Erlangen vor.
Tim, ebenfalls beim Selfnet engagiert, arbeitet heute beim Belwue im Bereich Netzausbau/Backbone. Er erläuterte die Struktur des Landeshochschulnetzes und die Besonderheiten bzgl. Anbindung von Studentennetzen. Da das Belwue innerhalb des Backbones derzeit verstärkt IPv6 einführt, berichtete er außerdem von Problemen mit Hard- und Software, schönen Bugs und gab Hinweise, was beim Ausrollen von IPv6 in den Studentennetzen noch beachtet werden sollte.
Danach gab es Mittagessen in der Mensa II (Stuttgart-Vaihingen), welche architektonisch durchaus als "anders" bezeichnet werden kann Anschließend ging es noch hoch hinaus auf das Gebäude der Biologen, das mit einem herrlichen Blick über Stuttgart lockte.
Weiter gings zum Höchstleistungsrechenzentrum Stuttgart (HLRS), einem Bundesrechenzentrum welches neben dem Betrieb der Großrechner auch im Bereich Forschung von Höchstleistungsrechnern aber auch von Visualisierung betreibt. Dazu stehen mehrere Großrechner (Vektorrechner NEC SX8/SX9, Cray, BladeCenter, usw.) zur Verfügung.
Nachdem die Gruppen geteilt wurden, konnten wir uns als erstes die Cave ausprobieren und in einem Porsche-Fahrsimulator die Fahrkünste unter Beweis stellen. Nach dem Gruppenwechsel stand die Besichtigung der Höchstleistungsrechner im 700qm großen, 4m hohen Serverraumes an. Der Unterboden des Raumes ist auch ca. 4m hoch und wird neben der Unterbringung von Energieversorgungseinrichtung vor allem für die Belüftung von unten genutzt. Um mal mit ein paar Fakten zu nennen: Die Luft im Serverraum wird in ca. zwei Minuten einmal komplett augetauscht, für die Kühlung kommt u.a. Fernkälte zum Einsatz und allein der Energieverbrauch von einem Megawatt ist beeindruckend.
Nach der Rückkehr zum Unithekle stellte Christoph kurz FeM vor und es folgten noch Vorträge vom MCN (Mittweida), CSN (Chemnitz) und dem StuStaNet (Studentenstadt München) während die Stuttgarter sich im Zusammenbau von Grills probierten. Leider musste sich Jan aus Mittweida etwas mit seinem Vortrag gedulden, da ein zwischenzeitlich knapp neben dem Veranstaltungsort gelandeter Hubschrauber die Aufmerksamkeit auf sich zog. Der erste SNT-Tag klang bei Gegrilltem und dem ein oder anderen kühlen Blonden im Unithekle aus... Wer Lust hatte konnte auch in einem USB-Workshop sich einen USB-Stick basteln.
PS: Die Jura hat hatte am Freitag Morgen nur einen Stand von weniger als 2000 Bezügen (nach etwa 3 Jahren). Allerdings muss man wohl dazusagen, dass es hier unten ein scheinbar nie versiegende Mate-Quelle für die Nerds gibt
Saturday, 2. July 2011
Happy Birthday, FeM!
Die Forschungsgemeinschaft elektronische Medien e.V. feiert gerade ihren Geburtstag. Da geht's im i-Club hoch her!
In genau diesem Moment twistern FeMies, iSTUFFler und hfmler um die Wette. Das Ganze findet natürlich auf dem hauseigenen Twisterspiel mit den typischen FeM-Dreiecken statt. An einem anderen Tisch wird munter Aktiven-Memorie gespielt und so lernen auch viele junge Aktive alteingesessene FeMies kennen. Denn dieses Mal gilt es nicht nur die Realnames den Nicks zuzuordnen, sondern auch den entsprechenden Profilfotos. Am Anfang des Abends führte auch eine QR-Tour quer durch das Office-Areal und rund um Block I und L. So kassierten die vielen Schnitzeljäger schon viele fragende Blicke von einigen Passanten vor dem L, aber von sowas lässt sich ein echter FeMie ja nicht abschrecken.
Aber die Feierei ist noch lange nicht vorbei! Und getwistert wird sicher noch bis in die frühen Morgenstunden, inklusive Muskelkater...
Tuesday, 11. August 2009
Studentennetztreffen 2009 in Tübingen - Teil 2
Nachdem alle wieder festen Boden unter den Füßen hatten kehrten wir erneut im Neckarmüller ein um weitere Teile der Speisekarte zu testen. Satt und zufrieden traten alle dann den Weg durch die Großbaustelle Tübingen an um nochmals im Clubhaus für ein paar Vorträge zusammenzukommen. Das Studentenwerk an der TU Darmstadt stellte ihren "LAN-Manager" - eine Lösung zur Verwaltung der Switche und Nutzer durch das Studentenwerk und die LAN-Beauftragten - vor. Anschließend wurden noch einige Fragen zu ihrem Netz und der Verwaltung beantwortet.
Trotz Prüfungsstreß hatten wir noch ein paar Informationen rund um das Thema "IPTV im Wohnheim" vorbereitet, die vor allem als Einstieg in eine rege Diskussion dienen sollten. Seitens anderer Netze wurde auf die Unterschiede bei den Landesmedienanstalten hingewiesen und auch Ideen für eine Umsetzung gegeben. Übereinstimmend war von vielen die Meinung in Richtung Set-Top-Box - sie ist nicht zwingend nötig würde aber viele Sachen deutlich einfacher machen. Wichtig ist bei ihr neben der einfachen Bedienbarkeit vor allem ein geringer Preis, da diese Boxen wohl von den Studentenwerken / Vereinen am ehesten als Leihgabe verteilt werden.
Bevor sich nach den Vorträgen viele wieder in Richtung Heimat aufmachten wurde noch ein Gruppenfoto der fast 50 Teilnehmer vor der Neuen Aula der Uni Tübingen geschossen. Neben Ilmenau blieben auch die Mitglieder vom "Mittweidaer Campus Net" und vom Stuttgarter "Selfnet" noch in Tübingen und besprachen am Neckarufer u.a. wie man zukünftig intensiver zusammenarbeiten kann. Die Frage nach dem Ort fürs Abendessen stellte sich erst gar nicht - die Speisekarte war einfach zu lang und das Essen mehr als lecker.
Gegen 20.30 Uhr traten die Verbliebenen die Busreise Richtung Unterkunft an um den Abend wie schon an den Tagen zuvor im Kuckuck ausklingen zu lassen.
Am Samstag morgen gings nach dem Frühstück dann für alle wieder nach Hause. Den Organisatoren gebührt ein großes Dankeschön für die Vorbereitung und Umsetzung des Treffens. Wir hoffen, dass die Bemühungen zur Zusammenarbeit und auch die Kommunikation zwischen den Netzen weiter intensiviert wird.
Im kommenden Jahr wird das Studentennetztreffen voraussichtlich beim "Selfnet" in Stuttgart stattfinden. Wir freuen uns schon jetzt darauf.
Mehr zum Thema Studentennetzwerk und Kontaktmöglichkeiten gibts unter: http://www.studentennetze.de
PS: Vielen Dank ans CSN für die Bilder.