Source Code: TOR-Crawler

Crawler sind kleine Programme, die dabei helfen, den Informationsdschungel des World Wide Webs systematsich zu durchforsten. Ausgehend von einer Startadresse sammeln und strukturieren die Programme nach vorab definierten Kriterien verschiedene Informationsfussel eines Pools festgelegter Seiten. Indem auch Links zu neuen Seiten aufgenommen und angesteuert werden können, führt dieser Pool mitunter in ungeahnte Tiefen. Nachdem Methoden zur Sammlung und Strukturierung der Daten je nach Aufgabenstellung unterschiedlich Form annehmen, gilt das Hauptaugenmerk hier dem Aufsetzen eines Crawlers. Seine Aufgabe wird es sein, einzelne Adressen anzusteuern und jeweils den gesamten Inhalt dieser Seiten an eine Funktion zur Datenreduktion/-strukturierung zu übergeben – an den Scraper. Weiterlesen „Source Code: TOR-Crawler“

Rezeptgenerator: Netzwerkanalytische Küche 101

Zum Bersten volle Kühlschränke, gähnend leere Kochtöpfe. Diese Kombination mag sich als klassisches Problem der Überflussgesellschaft qualifizieren, verweist aber auch auf ein strukturell bedingtes Selektionsproblem: jede zunehmende Möglichkeit, macht den Entscheidungsfindungsprozess schwerer. Geradezu handlungslähmend kann dieser Zustand werden, entwickelt mensch ein grundsätzliches Gefühl für den Kontrast zwischen der Fülle potentiell zugänglicher Informationen und den vereinzelten Optionskrümeln, die tatsächlich in greifbarer Nähe liegen. Was kommt also auf den Tisch, ohne der Willkür den Kochlöffel in die Hand drücken zu müssen?! Weiterlesen „Rezeptgenerator: Netzwerkanalytische Küche 101“

Bloggen auf WordPress.com.

Nach oben ↑