Suche
Kategorien
Getaggte Artikel
Impressum
Max-Planck-Ring 6d
98693 Ilmenau
Tel./Fax: +49 3677 691929
info@fem.tu-ilmenau.de
www.fem.tu-ilmenau.de
Vertretungs-
berechtigter Vorstand:
Vorsitzender:
Johannes Nothmann
Stellvertretende Vorsitzende:
Jule Büttner
Schatzmeister:
Hannes Waldschmidt
Stellvertretender Schatzmeister:
Sebastian Speitel
Registergericht:
Amtsgericht Ilmenau
Registernummer: 120483
Datenschutzerklärung
Verwaltung des Blogs
Sunday, 26. April 2015
Neuer Backup-Server für die FeM
Noch ein paar Daten und Fakten zum neuen System:
CPU: Intel Xeon E3-1231 v3
RAM: 16 GiB ECC DDR3
Betriebssystem-HDD: 2x 160 GB (gespiegelt)
Daten-HDD: 6x 2 TB (RAIDZ2)
Netto-Speicherkapazität: 7 TB
Betriebsystem: FreeBSD 10.1
Admins: Bammes, Michael
Monday, 1. December 2014
Goodbye Cisco - Der Auswanderer
Cisco-Umzug 24./25. November 2014
In der Nacht vom Montag den 24.11.14 auf Dienstag den 25.11.14 wurde der Kernrouter des
FeM-Netzes aus dem Block M in den Block H umgezogen.
Hintergrund: Beweggrund für den (temporären) Umzug ist der geplante
Einbau eines Fahrstuhls in den Block M, bei welchem die Wand, neben der der Cisco bislang stand,
durchbrochen werden muss. Um nun die empfindliche Netzwerktechnik diese Bauarbeiten
unbeschadet überstehen zu lassen, ist diese nun vorübergehend im H-Betriebsraum untergebracht
(genau genommen "übergebracht", da er nun über den sich dort befindenden
Servern hängt).
Der eigentliche Umzug:
Die FeM-Mitglieder wurden zuvor per E-Mail darauf hingewiesen, dass es in der Nacht von Montag auf Dienstag
ab 00:00 Uhr zu einem Netzausfall kommen würde, der sich auf einen
Zeitraum von ca. 3-4 Stunden erstreckt.
Gegen
22:40 trudelten so langsam alle Helfer im FeM-Office ein. Die üblichen
Verdächtigen waren schon fleißig am Werkzeug zusammensuchen,Doku ausdrucken etc..
Ziemlich genau um 23:00 Uhr trafen wir am Block M ein, der uns, dank des zuvor informierten Wachschutzes, offen stand.
Flib und hebbet begannen einige Block - Cisco Steckverbindungen zu dokumentieren, um später Zeit zu sparen. Die
günstige Gelegenheit, das Campusnetz auseinander zu nehmen wurde auch
gleich dazu genutzt, um diverse Strecken auf ihre 10GE-Fähigkeit zu
testen. Hierzu bereiteten Gerbi, Rafael und Meineeiner unter der
Anleitung von Pegro zwei HP 3800 Switches als "Paketbeschleuniger"[0] vor, um die tatsächlich vorhandene
Bandbreite zu testen und sich nicht nur auf das Aufleuchten der Link-LED zu verlassen.
Als das eigentliche Abpatchen begann, zeigte die Uhr gerade 23:57 Uhr.
Parallel dazu wurden die restlichen Steckverbindungen dokumentiert und die Patchkabel fein säuberlich aufgerollt.
Einer der beiden 38er Switche war bereits in Position gebracht und der zweite wurde um 00:02 von
Pegro, Rafael und Anton in den K-Betriebsraum verfrachtet.
Unterdessen
kümmerte sich Gerbi um das Verkabeln zweier Laptops, die als Paketquelle und -senke für die 10GE-Tests herhalten sollten. Um
exakt 00:08 Uhr ging der Uplink down und etwa 10 Minuten später wird
der Cisco mithilfe von Stefan (lost_sync) und Thorsten (Aaaarrrggh) zum
Block H gefahren (Achtung Gefahrensituation). Dort angekommen fiel auf,
dass der BR-Schlüssel vergessen wurde und Meineeiner durfte noch einmal
zurücklaufen und ihn holen.
00:41
Uhr war die BR-Tür dann endlich offen und Mank kommentiert: "Staubig
hier", woraufhin ihm lost_sync, auf den Feuerlöscher deutend, eine CO2-Party offerierte....
Der Cisco wurde anschließend in einer dafür vorgesehen Schale
in das Rack geschraubt. Dabei fiel auf, dass eben jene Schale nicht für
den Schrank im H-BR geeignet ist, da der Cisco in ihr zu stark auf den
darunterliegenden Servern auflag. Zum Glück zauberte Keksi aus dem
Nichts (niemand möchte wissen woher genau ) eine passende 1HE Platte,
die wie gemacht schien, um einen Cisco in einem Serverschrank zu fixieren.
Die Serverschranktür musste jedoch ausgebaut werden, da das Rack zu
weit vorne saß und man deshalb beim Schließen der Tür die Glaskabel
beschädigt würden. In
der Zwischenzeit haben hebbet und fabian die nötigen Patches im Haus M
gesteckt. Hebbet zog danach weiter in den L und patchte dort fröhlich
vor sich hin.
Schlag 01:04 war der zweite Versuch den Cisco einzubauen erfolgreich, dann begannen hebbet und texec
damit die Glaskabel auf den Cisco zu patchen, während meineeiner und phite in den M liefen,
um die übrigen Patchkabel zu organisieren.
Gegen 01:49 Uhr waren die Uplinks der einzelnen Blöcken gesteckt,
womit das Netz auf Nutzerseite wieder funktionsfähig war.
Um 02.57 Uhr und später noch einmal um 03.25 Uhr mussten die WLAN-APs
einzeln neu wieder aktiviert werden.
Das Sorgenkind war bis zuletzt war der Link Richtung ML2.
Dieser konnte erst nachmittags von Meineeiner und Pegro gefixt werden.
Wednesday, 12. March 2014
Neuanbindung des Wohnheim Block Q
Bisher war der Block Q oberhalb vom Campus über die
RZ-Netzwerkinfrastruktur im Kirchhoffbau angebunden. Dort lagen die
notwendigen FeM-VLANs auf einem RZ-Switch direkt an. Dieser Switch
entfällt jedoch im Zuge der Modernisierung des RZ-Kernnetzes, sodass wir
gezwungen waren, unsere Anbindung für den Block Q zu erneuern. Idee war
dann, eine neues Singlemode-Kabel vom Q zum Kirchhoff zu ziehen und
sich von dort passiv direkt bis ins Haus M zu unserem Kernrouter
durchpatchen zu lassen. Das bisher liegende Multimode-Kabel war für
solche Verlängungsaktionen nicht brauchbar. Durch Verwendung einer
solchen Darkfiber sind wir komplett vom topologischen Aufbau des
RZ-Kernnetzes unabhängig, was sowohl unsere als auch die Arbeit vom RZ
deutlich einfacher macht. Wir können dort uns selbst soviel Netz machen,
wie wir wollen." Anm. der Redaktion]
Vorstandsvorsitzen einen Abstecher zum Schornlager machten um die notwendige Kabelzughilfe zu besorgen.
Die eigentliche Aktion begann gegen 11:45 Uhr, wobei bald klar wurde, dass Zugang zum Kellerabschnitt unterhalb des Serverraums benötigt wurde. Kurzerhand besorgte der Technikchef (mit besorgter Miene) auch diesen.
Die
Kabelrolle konnte nun dank reichhaltiger Erfahrung geschickt so auf
einigen Stühlen positioniert werden, dass ein unproblematisches Abrollen
möglich war.
Als nächstes begannen die Aktiven damit die einzelnen Kabelschächte auf dem Weg zum Q zu öffnen und das Kabel mithilfe der Kabelzughilfe durch die verbindenden Leerrohre zu ziehen.
Auf diese Weise lies sich das Kabel mehr oder weniger problemlos bis zum Applikationszentrum verlegen.
Bis zum Staudinger-Bau gab erst einige Verwirrung aufgrund des verdrehten Kabelschachtes vor der NANOteria. Nach Lösung der Probleme, war auch der Weg zum Staudingerbau kein Problem.
Ab da durften wir das vorhandene Leerrohr der Uni bis zur Anzeigetafel nahe der Schranke mitnutzen. An geeigneter Stelle wechselten wir in unser eigenes Leerrohr ([das mit dem alten Multimode-Kabel, Anm. der Redaktion]) weiter Richtung Q, wobei sich der eine oder andere nicht aktiv beteiligende FeM Aktive danebenstellte um "nur mal" zu gucken
Zwei Leerrohre später war der Q erreicht. Auch die Straßenquerung am Haus Q war erstaunlicherweise (wie gehofft) kein großes Problem.
Auf dem Weg zurück zum KHB wurden die Kabelschächte wieder verschlossen und
in einigen Fällen noch das Kabel etwas zurechtgezogen, damit keine zu
langen Schleifen zurückbleiben.
Auch wurde die geforderte Beschriftung angebracht. Zurück
am KHB, konnte ein Maßband benutzt werden, um das andere Ende des
Kabels zwei Stockwerke höher in den richtigen Betriebsraum zu leiten.
Damit war der Kahah belzug gegen ca. 16.20 Uhr beendet (und damit früher als erwartet).
Zum Schluss wurde wieder alles zusammen gepackt und alle Türen wieder ordnungsgemäß verschlossen.
im KHB, durch die Firma Baudler die 8 Fasern aufgepleißt. Anschließend
ging die Arbeit im Q weiter. Hier wurde das alte Multimode-Kabel
abgeschnitten und rausgefummelt. Danach kam das neue Kabel, mit neuem
Schrumpfschlauch ummantelt, in die Hauseinführung. Dieses wurde dann
noch im Q aufgespleißt, durchgemessen und aufgepatcht.
wurden mit Hr. Hofmann vom RZ die weiteren Patches vom KHB zum Audimax
und von dort zum Wohnheim Block M (jedoch erstmal kein Link). Danach
konnte auf ein anderes Fasernpaar zwischen Audimax und M umgesteckt
werden
Endergebnis ist das Haus Q jetzt direkt (ohne weitere aktive Technik
dazwischen) an unseren Kernrouter im Haus M angebunden, was mehr
Unabhängigkeit vom RZ-Netz schafft. - - > Happyend

Wednesday, 31. July 2013
Das Campus-WLAN kommt
Seit Anfang Mai steht unseren studentischen Mitgliedern auf dem Hans-Stamm-Campus der TU-Ilmenau neben dem kabelgebundenen Zugang zum Forschungsnetzwerk auch ein drahtloser Zugang in den Studentenclubs des ILSC e.V. sowie im Haus P zur Verfügung. Mittels WLAN können nun also auch mobile Geräte wie Smartphones oder Tablet-PCs zur Internetrecherche für Studium und private Zwecke genutzt werden. Es ist geplant, das WLAN in den kommenden drei Jahren auf alle Ilmenauer Wohnheime des Studentenwerkes Thüringen auszuweiten.
"Das Campus-WLAN kommt" vollständig lesen
Saturday, 29. September 2012
Studentennetztreffen 2012 in Ilmenau - Tag 1
Nachdem auch die letzten sanft geweckt waren und sich beim Frühstück nochmal stärkten, hieß es am Vormittag "Auf 'gen Campus". Der Campus ist vom SFZ aus in wenigen Minuten zu Fuß erreichbar. Im Office angekommen teilten wir die mittlerweile über 20 Teilnehmer in zwei Gruppen. Es folgten eine jeweils fast einstündige Betriebsraum- und Campus-Führung über den Teil des Campus, der die meisten von uns versorgten Wohnheime beherbergt. Dabei kamen natürlich Anekdoten rund ums Campusleben und die Verkabelung der Blöcke sowie der typische Tech-Small-Talk beim Anblick voller Serverschränke nicht zu kurz. Die andere Gruppe versorgte sich derweil mit Internet oder wurde von Aktiven im FeM-Office bei Laune gehalten. Zwischen den Touren kamen die Mitglieder des Chemnitzer Studentennetzes (CSN) und ein weiterer Stuttgarter an.
Gegen 12.15 Uhr gab es dann Mittag in der Ilmenauer Mensa, wo kurz darauf auch der Netz-AK Tübingen eintraf. Gestärkt und frohen Mutes ging es nach kurzem Zwischenstopp im wenige Meter entfernten FeM-Office dann Richtung Vortragsraum im Kirchhoffbau. Das Ressort Broadcast hatte dort bereits 2 Kameras und div. Video- und Audiotechnik bereitgestellt, um die Vorträge aufzuzeichnen. Zu Beginn stellten sich, neben der FeM e.V. auch Stuttgart, Chemnitz und Nürnberg nochmal kurz vor und zeigten, wie ihre Vereine/AGs und ihre Netzwerke aufgebaut sind. Vor allem für die neuen SNT-Besucher gab es hier interessante Informationen und Anregungen - aber auch für alte SNT-Hasen war die ein oder andere Neuerung des letzten Jahres dabei.
Auch die Mitarbeiter des Rechenzentrums verfolgten dies mit regem Interesse, bevor Dr. Konrad Hoffmann den Wandel des Universitätsnetzwerkes in den letzten 20 Jahren aufzeigte und über die ein oder neue andere Technologie, die im Zuge der laufenden Umstrukturierung geplant oder umgesetzt ist, informierte. Wolfgang Steudel (RZ) referierte anschließend noch zum Thema Netz-Sicherheit und die Migration von herkömmlicher zu IP-basierter Kommunikation mit den an der Universität üblichen Anwendungsszenarien.
Im Kontext der vorhergehenden Vortragenden hat dann Rei über die Odysee beim Aufbau eines WLANs in den Wohnheimen berichtet. Er ging dabei auf die Features ein, die für einen Betrieb im FeM-Net nötig sind und verglich die Teststellungen namhafter Hersteller. Mittlerweile sind wir bei einer OpenWRT-basierten Lösung auf MIPS-Hardware mit DualBand-802.11n-WLAN gelandet, die sicherlich noch das ein oder andere Mal hier im Blog Thema sein wird.
Der Abend klang dann bei gemeinsamen Abendessen, Bilder- und Videopräsentation im FeM-Office und einem Besuch im bi-club aus...
Friday, 31. August 2012
Einmal mit ProPhiS arbeiten
Motivierte FeMies haben es geschafft! Eine neue Funkstrecke verbindet die neu errichteten Studentenwohnungen an der Professor-Philippow-Straße (ProPhiS) mit dem Fem-Net.
Bevor wir die Funkstrecke in Betrieb nehmen konnten, mussten viele technische als auch bürokratische Hürden überwunden werden.
Es war quasi ein Hürdenlaufen gegen den Zeitplan des Bauunternehmens.
Und wir sind an der ein oder anderen Hürde hängen geblieben und somit haben wir kein olympisches Gold holen können.
Doch alles der Reihe nach.
Als letztes Jahr mit dem Bau des ersten Gebäudes begonnen wurde, war für uns relativ schnell klar, dass wir diese Wohnheime mit an unser Netz anbinden wollen.
Die Nähe zum Campus und somit auch zum FeM-Net war zu verlockend.
Wir haben daher versucht, das auch dem Bauträger schmackhaft zu machen. Leider war die Kontaktaufnahme nicht von Erfolg gekrönt.
Kurz vor Beginn des Wintersemesters wurde dann auch noch der Parkplatz oberhalb des Haus N neu gepflastert. Wir haben mehr als nur einmal mit dem Gedanken gespielt, diese Situation zu nutzen und zumindest Leerrohr zu verlegen, bevor die Asphaltdecke auf die neu verlegten Fernwärmerohre gezogen wird.
Aber wir haben zu lange überlegt und somit ist das Porjekt bei uns zunächst eingeschlafen.
Die ersten Studenten kamen auf uns zu und wollten wissen, ob wir Ihnen Zugang zum FeM-Net ermöglichen können. Während wir noch über diese Anfrage nachdachten, haben jene Studenten ihre Hausverwaltung gebeten, sich mit uns in Verbindung zu setzen um dieser Anfrage eine offzielle Form zu geben.
Bei den ersten Gesprächen konnten wir uns recht schnell auf die grundlegenden Projektpunkte einigen. Nun musste unsere Idee noch mit dem Rechenzentrum und der Universitätsleitung geklärt werden. Bis zu diesem Zeitpunkt, waren die neuen Wohnheime noch keine offiziellen Gebäude des Campus und somit durften wir diese laut Kooperationsvertrag mit dem RZ nicht ohne weiteres verkabeln. Diese politische Hürde konnte in Gesprächen mit RZ und Rektor schnell ausgeräumt werden und dem Projekt stand nun nichts mehr im Weg.
Technik:
Das Projekt WLAN hatte für die neu gefundenen begeisterten FeMies zwei Testgeräte parat und somit konnten wir sofort loslegen. Es handelt sich um zwei RouterStation PRO von Ubiquiti, die über mehrere Abende mit verschiedenen Anordnungen und Konfigurationen getestet wurden. Mit Datenverlusten mussten wir auch kämpfen, also immer brav Sicherungskopien bereit halten
Wir hatten dabei viel Spaß und speziell die jungen FeM-Techniker haben von den alten Hasen viel gelernt, was nicht heißt, dass auch diesen immer wieder neue Probleme die Köpfe rauchen lassen.
Irgendwann war die Software fertig. Wieder einen Schritt geschafft.
Hardware basteln gehört natürlich auch dazu! Also wurde die empfindliche Hardware in Frischehalteboxen eingepackt, denn diese geben ein gutes Gehäuse für WLAN-APs ab. Schnell noch einige Löcher gebort, ein über USB getrieben Lüfter eingebaut und das luftdurchlässige "Case" Marke Eigenbau war perfekt.
Zum Anbringen der APs kamen wir erstmal nicht....
Anbringen der APs:
Das Anbringen der APs war der dritte Versuch in diesem olympischen Spiel, der zum Glück auch mit Bestmarke gültig war!
... Leider hatten wir bei unserer Planung vergessen, dass wir mit zwei Löcher in der Wand, um den AP an der Wand des Block N zu befestigen – was sich am Ende als unnötig heraus stellte – die Bausubstanz eines Neubaublockes zerstören würden.
Geplante Anbindung an das Fem-Net: 1. Juli.2012
Tatsächliche Anbindung: 26. Juli 2012
Zwei strategisch platzierten Access Points. 6 motivierte FeM-Techniker. 2 StuWe Mitarbeiter
Es ist der 26. Juli, 14 Uhr. Die Mittagssonne scheint und blendet uns, als wir das Dach von Block N betreten. Sowohl die FeM, als auch das Studentenwerk sind vor Ort, um die "Baumaßnahmen" zu koordinieren.
Wow, das ilmenauer Wetter war gut zu uns, viel zu gut. Schweiß war bei der Hitze auf dem Dach garantiert. Eine Hitze auf dem Dach. Zum Glück existiert ein Funkmast mit entsprechender Verkabelung. Diese führt vom Betriebsraum aufs Dach, perfekte Bedingungen, da keine weiteren Bohrungen nötig waren.
Bis jetzt sind die APs trotz des wechselhaftem Ilmenauer Wetters weder geschmolzen noch abgesoffen. Leider können wir keine Temperaturwerte messen, da die entsprechende Sensoren nicht zum funktionieren gebracht werden konnten.
Zwar handelt es sich bei der WLAN-Anbindung der ProPhiS um eine temporäre Lösung, um die Bewohnern ans FeM-Net anzubinden solange noch kein Glasfaserkabel verlegt wurde, jedoch bietet sich für uns die Chance unsere APs endlich unter realen Bedienungen zu testen.
Mit einem Glasfaserkabel, welches verraussichtlich für Ende Sommersemester 2012 (die Baufreigaben von der Stadt und dem Dezernat für Gebäude und Technik liegen uns nun vor) geplant ist, wird die nutzbare Bandbreite natürlich um einiges besser.

Dieses Projekt hat uns aber viel Aufschluss über den Aufbau von Funkstrecken und dem zukünftigen WLAN-Projekt für den Campus gegeben.
Mit anderen Worten: Wir haben vieles gelernt...
Weitere Details finden Nutzer des FeM-Net im vereinseigenen Wiki [http://wiki.fem.tu-ilmenau.de/technik/projekte/prophi]. Alle anderen Interessierten können sich gern per Mail an die Projekt-Mailingliste (projekt-wlan@fem.tu-ilmenau.de) wenden.
FeM verbindet!
Tuesday, 27. December 2011
28C3: Rückblick
Schon wieder ist es erst einmal vorbei. Nach zwei Monaten Vorbereitungszeit haben es 13 Leute vor Ort und weitere Helfer geschafft, das Streaming & Recording des 28C3 zu stemmen. Bei den 97 gestreamten Veranstaltungen, welche in sieben verschiedenen Formaten übertragen wurden, fielen nicht nur 27 Streams gleichzeitig an, welche durch 39 Server verteilt wurden, sondern auch allein an HTTP-Traffic kamen ca. 10 TByte zusammen. Die Aufnahmen aller Veranstaltungen nehmen außerdem übrigens ca. 1,8TB an rohen Videodaten (DV) in Anspruch.
Tag 1
Der Beginn des Streamings am ersten Tag war durch Probleme mit dem Netzwerk geprägt und verursachte auch das meiste Aufkommen an Supportarbeit während des C3. Die Netzprobleme hatten ihren Ursprung in einem wegfallenden Peering nach außen. Da der Netzplan des NOC mehrere Uplinks vorsah, kam es vor, dass wir ab und zu diesem wegfallenden Peering zugeordnet waren. Gefixt wurde das Problem, zumindest für uns, durch feste Bindung unseres Subnetzes an ein stabiles Peering. Während des Restes des C3 konnten wir danach keine weiteren derartigen Probleme ausmachen.
Weiterhin mussten wir oftmals erklären, warum das HTTP-Streaming (neu in diesem Jahr) bei einigen Leuten nicht oder nicht richtig funktionierte. Dies lag meist einfach daran, dass außer Apple-Produkten und dem VLC-1.2pre dieses Format von keinem Browser oder Videoplayer richtig unterstützt wird und daher auch (noch) relativ unbekannt ist. Anhand der Videoschnipsel und zusätzlich generierten Playlisten war es uns möglich, ein on-demand HTTP-Live-Streaming anzubieten.
Tag 2
Am Tag 2 konnte der Release-Prozess von uns gestartet werden und war auch sehr produktiv, was man unter anderem daran merkte, dass Videos schon zwei Stunden nach Ende des Vortrages als Torrent veröffentlicht wurden. Dies funktionierte auch durchgehend bis zum Ende des Kongresses gut, so dass wir zumindest Audio bereits komplett fertig released hatten, als wir Berlin verließen.
Spaß hatten wir auch mit ein paar Scriptkiddies, welche die Übersichtsseite der Streams durch "einige" gleichzeitige Verbindungen lahm gelegt haben. Und der Zeitpunkt war günstig gewählt, da beide Administratoren gerade extern Essen waren und nur die Mailbox mit uns reden wollte. Als dann endlich wieder einer Anwesend war, stellte er schnell fest, dass der Errorlog bereits 17 Gbyte überschritten hatte, welche erstmal in /dev/null archiviert wurden. Die Konfiguration des Webservers wurde daraufhin angepasst und kam danach besser mit den Anfragen klar, der Rest des Kongresses verlief ohne weitere Probleme in dieser Richtung.
Eine schöne Sache an unserer Infrastruktur ist ja der Slides-Only-Stream, welcher auch die Bilder des Beamers abgreift, wenn auf den anderen Streams nur das Pausenbild eingeblendet wird. So ergab sich während einer Pause, dass das Bild eines Bluescreens für mehrere Minuten sichtbar war - wir streamen halt alles.
Tag 3
Für gewöhnlich ist es ja recht warm bei uns im Video Operation Center (VOC), da die ganzen Server dort stehen und die entsprechende Tür regelmäßig geöffnet wird. Zusätzlich zieht natürlich auch die ganze warme Luft des bcc zu uns hoch. An den ersten zwei Tagen ging das noch gut und es war eine angenehme Temperatur. Am dritten Tag jedoch, wurde es langsam wärmer, so dass irgendwann einer unserer H.264-Encoder ein Problem damit hatte. Zuerst entfernten wir das Gehäuse und verlegten den Ventilator aus dem VOC direkt in den Betriebsraum, um die Luftzirkulation zu verbessern. Alles dies brachte zwar immerhin eine Temperaturreduktion von 12°C, half jedoch nicht das Problem zu beseitigen und es stellte sich heraus, dass die Festplatte vermutlich am sterben war. Ein Austausch der Festplatte löste das Problem jedenfalls bis zum Ende des Kongresses.
Außerdem am Tag 3: Der schon fast traditionelle fefe-Peak! Der wohl meist erwartete Vortrag, "Fnord-Jahresrückblick", war in der Spitze mit ca. 3.500 Zuschauer gleichzeitig in Saal eins gesegnet. Zusammen mit den anderen beiden Sälen haben wir zu diesem Zeitpunkt insgesamt ca. 4.100 Zuschauer gleichzeitig bedient.
Zum Schluss des Tages haben wir beim Konzert auch mal selbst Hand angelegt. Wir wollten unsere Erfahrung im Umgang mit den Kameras und dem Videomischer auch einmal einbringen - immerhin beschäftigen wir uns im Verein schon jahrelang damit - und ein Konzert lebt schließlich auch von Dynamik, welche nicht ganz so einfach zu handhaben ist, wenn die Erfahrung für solche Situationen fehlt.
Setup
Am Setup hat sich im Laufe der Tage auch ein bischen was geändert. Wir haben zusätzliche Formate hinzu genommen (geplante und ungeplante) und damit natürlich auch zusätzliche Streams betreuen müssen. Zuerst sind wir mit WMV-, H.264 via RTMP-, HTTP- und Slides-Only-Stream gestartet. Zusätzlich wurde am Tag 1 vom Streaming-Team des CCCamp2011 eine Infrastruktur für OGG/Theora hingestellt, welche mit unserem Signal befüllt wurde. Als Weiteres kam dann der Audio-Only-Stream hinzu, welcher auch direkt auf den Slides-Only-Stream-Seiten eingebaut wurde. Aber auch spontane Ideen, wie einen ASCii-Stream via telnet anzubieten (aus der Wunschliste des 28C3-Kongresswikis), konnten wir umsetzen.
Das Monitoring betrieben wir über sechs SDI Monitore, welche jeweils alle Signale von Saal 1 bis 3 Live im VOC zeigten. Außerdem haben wir einen RTMP-Check über einen Laptop gefahren, der die Signale aller 12 RTMP-Server gleichzeitig angezeigt hat. Damit konnten wir prüfen ob noch alle 36 Signale im Netz verfügbar waren. Die Anwendung selbst war nicht trivial, da alles Flashplayer waren und CPU und RAM damit entsprechend gut ausgelastet waren. Der verwendete Crtmpserver - zum Verteilen der RTMP Signale - hatte die Angewohnheit, bei Signalverlust zum Encoder kein Bild mehr auszuliefern und musste deshalb im Zweifelsfall neugestartet werden. Ursprünglich hatten wir ja ein Setup mit einer Mischung aus Erlyvideo und Crtmpserver geplant. Diese wurde allerdings während des 28C3 schrittweise fast komplett auf Crtmpserver umgestellt, da dieser besser skalierte als die Erlyvideo-Variante, die wir bereits 2010 verwendet haben. Einzig ein Erlyvideo-Verteiler blieb aufgrund der Laufzeitstabilität übrig, welcher die Streams für die "No Nerd Left Behind" auslieferte.
Die Infrastruktur wurde gerade teilweise wieder aufgebaut und wird in der nächsten Zeit den Rest des Materials encodieren. So sollten die restlichen Formate und fehlenden Vorträge bald online sein. Einiges wird ein wenig länger dauern, da diese noch manuell nachbearbeitet werden müssen und speziell über Silvester niemand von uns so wirklich Lust hat sich dran zu setzen.
Katzen
Übrigens haben wir in der Nacht von Tag 3 auf 4 für Latenztests die Nyancat laufen lassen (Gesamt: 33904.9 Sekunden). Dies wurde auch über die DVB-T Bildschirme im BCC ausgestrahlt und lief dort durchaus mit Ton die Nacht durch und erfreute sich großer Beliebtheit. In der anschließenden Q/A-Runde im IRC wurde dann auch festgestellt, dass FeM die Aktion "No Cat Left Behind" unterstützt. Bei der Aktion wurden im übrigen keine Tiere verletzt.
Support
Auch wenn wir eigentlich nur für das Streaming und Recording zuständig sind, bekamen wir öfters Anfragen, welche eigentlich nichts mit dieser Arbeit zu tun haben. So wurden wir angerufen, wenn Leute bspw. mal ein Kabel brauchten. Außerdem hatten wir unzählige Anfragen, nach dem Track, welcher zwischen den Vorträgen abgespielt wurde. Wer den noch immer sucht dem sei es nun gesagt: "Machine Lullaby" von "Fear of Ghosts". Die Frage warum $Player das HTTP-Live-Streaming nicht unterstützt, haben wir ja oben schon einmal erwähnt. Ein Hinweis auf einen nicht funktionierenden Stream war nicht so trivial nachzuvollziehen, da es pro Saal neun verschiedene Streams gab, welche über mehrere Server verteilt ausgeliefert wurden. Manchmal lag es aber auch an der eigenen Verbindung der Anfragenden bzw. einer schlechten Route.
Aber nicht nur Supportanfragen haben uns erreicht.
Auch Dank der Zuschauer und Kommentare, welche uns zum Schmunzeln brachten: "Internet tut. WLAN tut. Streaming tut. Wie soll denn da Congressfeeling aufkommen?c3streamingc3infodesk Nein, ihr seid spitze!"
Dank
Abschließend möchten wir uns natürlich noch bei einigen Institutionen bedanken, welche es möglich gemacht haben die Infrastruktur aufzubauen bzw. zu benutzen. Dies wären: ErgoDATA GmbH, Selfnet e.V., ATekoN e.V., Hetzner AG, 1HE-Server.com, die TU Ilmenau - insbesondere das Rechenzentrum und dessen Cheftechniker, dem Institut für Medientechnik und der Hörsaaltechnik - und Andere, welche nicht näher genannt werden wollen.
Wir möchten uns aber auch bei all denjenigen bedanken, die uns auf Fehler während der Übertragung oder sonstige Probleme aufmerksam gemacht haben. Wir versuchen zwar alles selbst zu überwachen, aber es ist halt manchmal aufgrund anderer Aufgaben schlichtweg nicht machbar.
Saturday, 27. August 2011
Studentennetztreffen 2011 in Stuttgart
Bereits am Donnerstag machten wir uns auf den Weg und kamen gegen 17 in Stuttgart an. Bei der Anmeldung in den Vereinsräumen der Gastgeber, auch liebevoll NOC (network operations center) genannt, wurden gleich einige Gemeinsamkeiten entdeckt: die Lage im Keller, eine blaue Couch und die gute Jura

Nachdem im Laufe des Abends weitere Teilnehmer und einige bekannte Gesichter aus Mittweida, Chemnitz, Dresden, Nürnberg/Erlangen und München eintrudelten, wurde in gemütlicher Runde im Unithekle (einer Studenten-Bar) das ein oder andere Problem erörtert oder sich an alte Geschichten von vergangenen Studentennetztreffen erinnert.
Der Freitag begann entspannt um kurz nach 9 mit einem ausgiebigen Frühstück im Sonnenschein. Zu Beginn der folgenden Vorträge erzählte Bernd, Gründungsmitglied vom selfnet e.V., etwas aus der Geschichte des Vereines, der ursprünglichen Idee, der Motivation und der letztendlichen ersten Umsetzung.
Zwischenzeitlich stellten sich noch kurz die AG DSN (Dresdner Studentennetz) und St. Peter Nürnberg/Erlangen vor.
Tim, ebenfalls beim Selfnet engagiert, arbeitet heute beim Belwue im Bereich Netzausbau/Backbone. Er erläuterte die Struktur des Landeshochschulnetzes und die Besonderheiten bzgl. Anbindung von Studentennetzen. Da das Belwue innerhalb des Backbones derzeit verstärkt IPv6 einführt, berichtete er außerdem von Problemen mit Hard- und Software, schönen Bugs und gab Hinweise, was beim Ausrollen von IPv6 in den Studentennetzen noch beachtet werden sollte.
Danach gab es Mittagessen in der Mensa II (Stuttgart-Vaihingen), welche architektonisch durchaus als "anders" bezeichnet werden kann

Weiter gings zum Höchstleistungsrechenzentrum Stuttgart (HLRS), einem Bundesrechenzentrum welches neben dem Betrieb der Großrechner auch im Bereich Forschung von Höchstleistungsrechnern aber auch von Visualisierung betreibt. Dazu stehen mehrere Großrechner (Vektorrechner NEC SX8/SX9, Cray, BladeCenter, usw.) zur Verfügung.
Nachdem die Gruppen geteilt wurden, konnten wir uns als erstes die Cave ausprobieren und in einem Porsche-Fahrsimulator die Fahrkünste unter Beweis stellen. Nach dem Gruppenwechsel stand die Besichtigung der Höchstleistungsrechner im 700qm großen, 4m hohen Serverraumes an. Der Unterboden des Raumes ist auch ca. 4m hoch und wird neben der Unterbringung von Energieversorgungseinrichtung vor allem für die Belüftung von unten genutzt. Um mal mit ein paar Fakten zu nennen: Die Luft im Serverraum wird in ca. zwei Minuten einmal komplett augetauscht, für die Kühlung kommt u.a. Fernkälte zum Einsatz und allein der Energieverbrauch von einem Megawatt ist beeindruckend.
Nach der Rückkehr zum Unithekle stellte Christoph kurz FeM vor und es folgten noch Vorträge vom MCN (Mittweida), CSN (Chemnitz) und dem StuStaNet (Studentenstadt München) während die Stuttgarter sich im Zusammenbau von Grills probierten. Leider musste sich Jan aus Mittweida etwas mit seinem Vortrag gedulden, da ein zwischenzeitlich knapp neben dem Veranstaltungsort gelandeter Hubschrauber die Aufmerksamkeit auf sich zog. Der erste SNT-Tag klang bei Gegrilltem und dem ein oder anderen kühlen Blonden im Unithekle aus... Wer Lust hatte konnte auch in einem USB-Workshop sich einen USB-Stick basteln.
PS: Die Jura hat hatte am Freitag Morgen nur einen Stand von weniger als 2000 Bezügen (nach etwa 3 Jahren). Allerdings muss man wohl dazusagen, dass es hier unten ein scheinbar nie versiegende Mate-Quelle für die Nerds gibt

Tuesday, 28. December 2010
Und da waren sie wieder, unsere drei Probleme ...
Part I:
Pünktlich zu Beginn der Vorträge meinten unsere WMV-Encoder in unregelmäßigen Abständen nacheinander aus der Streaminggeschichte aussteigen zu wollen und verweigerten den Dienst. Ausfälle der Streams und Unregelmäßigkeiten im Ton lauteten die Symptome und führten zu einer etwa zweistündigen Fehlersuche. Nach Überprüfung aller Steckverbindungen und Tausch möglicherweise defekter Kabel konnte der Fehler gefunden und behoben werden. In unserem Betriebsraum wurde den Encodern an ihrem Platz schlichtweg zu warm. Nun stehen sie direkt im Einzugsbereich der Klimaanlage und siehe da, die WMV-Streams laufen stabil und erfreuen sich großer Beliebtheit bei den Zuschauern.
Part II:
Gegen halb drei dann das nächste schwerwiegende Problem: Das Recordingsystem streikt - und zwar in der generalen Variante. Nix geht mehr, Schluss mit Lustig. Jetzt musste schnell eine Lösung gefunden werden, da wir ohne die digitalen Recordings darauf angewiesen sind, die Backup-DV-Bänder aller Kameras auszuspielen und den Vortrag neu zu schneiden, was sehr viel Zeit kosten und mindestens ein Mitglied des Teams an diese Aufgabe binden würde. Kurzerhand haben wir also einen unserer geplanten Encodingrechner zweckentfremdet und dort das Recording gelagert. Mitlerweile läuft das Recordingsystem zwar wieder, aber unter der jetztigen Konfiguration wäre ein Defekt oder weiterer Aussetzer fatal. Wir sind also zuversichtlich! Positiv denken...
... und als wäre es nicht schon genug, gibt es da noch Part III:
Die für unser Setup neuen h264-Streams leiden unter unregelmßigen Verbindungsabbrüchen. Mal kann man gemütlich 25 Minuten zuschauen, mal muss man bereits nach 20 Sekunden den Stream neu laden.
Die letzten Wochen haben wir uns eigentlich nur mit SDI-Übertragung und Verteilung etc. beschäftigt. Haben Teststreams mit mehreren hundert Clients bombardiert und tagelang ganze Räume dafür blockiert. Aber was wir quasi nur halb getestet hatten und uns aufgrund des bekannten Bildes, war die dauerhafte Nutzung eines Clients. Erst gingen wir von einer zu unausgewogenen Verteilserverlokalisierung aus, was aber, wie wir jetzt wissen, nicht der Fall ist. Der von uns genutzte Player bekommt manchmal nicht schnell genug eine Antwort vom Verteilserver, was dazu führt, dass er das Video als beendet ansieht. Im Moment beraten wir, wie wir das Problem umgehen können, da andere Player oder Protokolle keine derartige Qualität liefern. Wir hoffen, morgen eine stabilere Lösung präsentieren zu können.
Nun aber genug an schlechten Nachrichten, kommen wir zu den Guten!
Nick Farr musste den gesamten Tag in "hoody" und "baggypants" umherlaufen. Dem vorher gegangen war wohl eine Wette, dass niemand außer ihm im Anzug zum C3 kommen würde. Weit gefehlt. Pünktlich zur Keynote stand die gesamte Bühne voller Menschen im Anzug und rief nach Nick, welchem dann auch sofort noch eine große goldene Uhr umgehängt wurde. Sehr sehr lustig. Vielleicht kann man in der Aufzeichnung der Keynote das Ganze noch einmal sehen.
Des Weiteren kommen unsere Streams und die Idee der Peacemissions sehr gut an. Verteilt sind letztere über die ganze Welt. Aus den USA, Norwegen oder auch Kroatien und Norwegen haben sich Hackerspaces angemeldet und schauen unseren Stream. Im Schnitt waren immer etwa 22 von ihnen auf unserem PeaceMission-Stream eingeloggt, wobei davon auszugehen ist, dass hinter diesem Login Beamer und Leinwände stehen, was mit Sicherheit zu einigen hundert Zuschauern dort führt.
Auf allen anderen Streams hatten wir im Peak gegen 22 Uhr mehr als 3100 Clients. Dies wäre zwar im Vergleich zu den letzten Jahren ein neuer Nutzerrekord, aufgrund der Probleme mit dem h264-Stream können wir jedoch doppelt gezählte Clients nicht ganz ausschließen.
Und auch unser Mehdorn hat es sich mal wieder nicht nehmen lassen, uns mit einer kleinen Verkleidung zu erheitern. Dieses Jahr ist er als Mönch hier und man muss ehrlich sagen, das Gewand und sein Auftreten dazu passen zu ihm.

So, erstmal genug für heute, ich bin müde und werde jetzt schlafen gehen. Fotos werde ich daher erst morgen hier nachhreichen können. Gute Nacht.
Monday, 27. December 2010
2. Weihnachtsfeiertag... Zeit, quer durch die Republik zu fahren!
Pünktlich zum heutigen Tag 0 des 27. Chaos Communication Congresses, haben wir wieder einen Transporter mit mehr als 6m³ Technik vollgeladen und sind gen Berlin aufgebrochen. Dank zahlreicher Spenden, welche nach unserem Aufruf im Oktober bei uns eingegangen sind, konnten wir dabei auch einiges an neuer oder geliehener Technik einpacken. Das ein Teil dieser Technik es sein sollte, der uns den ganzen Tag vermiesen und den Aufbau in Gefahr bringen sollte, war zu diesem Zeitpunkt noch nicht abzusehen. Dazu aber später mehr.
Besagte Technik hatte die gesamte Woche zuvor viele Teststunden und -aufbauten gekostet und durchlebt, den ein oder anderen von uns schon viele Stunden Schlaf gekostet und schon erfolgreich mehrere Tage am Stück Live-Bilder aus dem Office gestreamt. Fast schon witzig, wenn man durch einen Testaufbau regelmäßig mal schauen kann, ob noch jemand im Büro ist... Nunja, nachdem fast alle pünktlich zum Beladen des Transporters anwesend waren und dies auch trotz diverser wetterbedingter Unweglichkeiten etwas umständlicher als sonst war, konnten wir gegen 10:30 Uhr endlich die verschneiten Straßen in Richtung Berlin anfahren. Ganz in der Hoffnung diesmal auch nichts wichtiges vergessen zu haben - schließlich hatten diesmal mindestens fünf Leute an das eingekaufte Essen gedacht! Und auch AnEs' nicht mehr einklappbarer Laptop war schließlich gut gesichert mit an Board. Nach kleiner Stadtrundfahrt und etwas später als geplant aber dennoch gesund und munter, erreichten wir kurz vor 15 Uhr dann auch das verschneite bcc (Berlin Congress Center) und begannen sofort mit dem ausladen der Technik. Schließlich mussten wir einiges an neuen Kabelwegen und Geräten aufbauen und hatten nun noch weniger Zeit.
Doch was ist das: "Wo ist denn der geplante C3-FTP? Wer hat den eingepackt?" - "Na ich dachte ihr habt den schon..."! Da war es also wieder das altbekannte Problem der vergessenen Dinge. Ein Glück dass der Rechner vorher im bi-Betriebsraum angeschlossen war und durch das gänzliche Vergessen dies nun auch noch ist. So können wir ihn von hier aus wenigstens noch nutzen und die Plattenkapazität ist nicht verloren. Also weiter aufbauen... Während sich kleinere Grüppchen um die einzelnen Säle kümmerten, wurde von den "alten Hasen" eifrig der Betriebsraum und unsere Video-Regie aufgebaut und verkabelt.
Und dann kam der SuperGAU. Die neue SDI-Kreuzschiene, letzte Woche angekommen, im Office tadellos funktioniert, mag keinen Strom mehr annehmen. Alle Versuche, sie an anderer Stelle in Betrieb zu nehmen oder noch etwas in Ruhe zu lassen scheitern - das Projekt: "SDI in allen Sälen", schwer in Gefahr. Zum Glück hatten wir vom IMT einige SDI-Hardwareverteiler mitbekommen, womit wir nun eine Verteilung realisieren, die uns auch alle benötigten Anschlüsse liefern kann. Nicht ganz ungefährlich, da wir nun bei allen Änderungen nicht mal eben 'umschalten', sondern hart 'umstecken' müssen. Dies birgt natürlich immer Gefahren diverser Ausfälle hinterher, aber immernoch besser, als die digitalen Versuche nun schon am Tag 0 wieder begraben zu müssen.
Aber es gab auch Lichtblicke. So waren wir wieder alle gemeinsam im Steakhouse essen und sind mit dem groben Aufbau vorhin um halb zwei Uhr Nachts wieder in etwa so weit wie letztes Jahr, müssen das Ganze nun morgen "nur" noch testen und letzte Arbeiten abschließen. Auch ein Parkplatz für den Personentransporter konnte nun in der Nähe des Hotels gefunden werden, der nicht gleich 25-50ct je angefangene Viertelstunde kostet oder für Anwohner mit Parkausweis Zone 14 reserviert ist. Ihr glaubt gar nicht, wie "spaßig" es ist, in Berlin bei Schneefall Parkplätze zu suchen, bzw. in Lücken hinein zu kommen.

Und auch einige spontane Hilfsaktionen haben sich schon ergeben. So möchte der Atze den Schoni morgen früh anrufen und wecken, da dessen Handy die Weckfunktion scheinbar nicht implementiert wurde. Und Flauschi unser Kabelmonster rennt durch die Regie und: "Muss mehr Tonkabel ... mehr Tonkabel". Auch viele Anfragen haben uns bereits erreicht: "Wann denn die Streams laufen würden?", "Warum wir das denn nicht lieber so oder so machen wollen?" und natürlich "Habt ihr mal noch nen Adapter/Kabel/whatever, uns fehlt da noch eins..."! Langsam aber sicher geht's also los mit dem 27. Chaos Communication Congress. Wir hoffen euch ab morgen mit den Streams ein bischen Freude bereiten zu können und fallen jetzt erstmal ins Bett.