Über mich

Vita – Bildungsweg

  • 2001 Abitur am Oberstufenzentrum Kommunikations-, Informations- und Medientechnik Berlin
  • 2003 – 2007 Studium der Medieninformatik an der TFH-Berlin mit dem Abschluss Diplominformatiker (FH)
  • 2007 – 2009 Studium der Medieninformatik an der BHT-Berlin mit dem Abschluss Master of Science

Vita – Berufserfahrung

  • 2003 Praktikum bei der Firma TeDeuM
  • 2004 Praktikum bei der Firma T-Systems
  • 2005 – 2007 Werksstudent bei Siemens COM, später Nokia Siemens Networks
  • 2007 – 2009 studentischer Mitarbeiter bei der Neofonie GmbH
  • 2009 – 2010 Softwareentwickler bei der Neofonie GmbH
  • 2010 – 2012 Projektleiter F&E bei der Neofonie GmbH
  • 2012 – 2013 Softwareentwickler bei der Searchmetrics GmbH
  • seit 2013 Softwareentwickler bei der Hypoport AG

Veröffentlichungen

Diplomarbeit

Das Thema meiner Diplomarbeit behandelte die “Abstraktion und Kapselung von GUI Komponenten”. Dabei war es das Ziel prototypisch eine Vereinfachung der bestehenden Java Swing und SWT Frameworks zu erzeugen, wodurch der zu erzeugende Code minimiert wird. Dabei sollte das spezifische Oberflächenframework dynamisch umschaltbar sein und die API das Erzeugen einer Obefläche in Bezug auf Codequalität und Usability verbessern.

Dabei wurden sowohl Softwarearchitektur Themen von mir angerissen, wie auch mögliche Design Patterns betrachtet und adaptiert.

Fragen zu meiner Diplomarbeit können gern an mich via E-Mail (siehe Kontakt) gesendet werden.

Coautor

Die Ergebnisse meiner Diplomarbeit wurden für eine Veröffentlichung in den Schriften zum Software-Qualitätsmanagement von meinem betreuendem Professor Dr. Roland Petrasch von mir zusammengefasst und als Beitrag eingebracht. Neben dem Beitrag von mir, enthält das Buch interessante weitere Beiträge von ehemaligen Kommilitonen und weiteren Professoren.

Masterarbeit

Ziel der Masterarbeit war es ein automatisches Verfahren zum Erkennen von Duplikaten zu identifizieren und prototypisch umzusetzen. Dabei sollten Entitäten, welche einer beliebigen Datenstruktur unterliegen, auf Ähnlichkeiten untersucht werden. Erkannte Duplikate sollten automatisch fusioniert werden, mit dem Ziel ein möglichst hohes Maß an Datenqualität zu erreichen.

Die Wirksamkeit des Verfahrens wurde an mehreren Beispielszenarien demonstriert, welche an reale Datensätze angenähert wurden.

Master Thesis Abstract

“The internet, as a collaborative knowledge base, is being enriched daily with further facts and intelligence. This information is provided as structured, semi structured or even unstructured data by different websites. Facts about individuals, for example, are easy to find on multiple internet platforms: portals, imprints, (social networking) profi- les, etc. However, the various data sets pertaining to a certain person are only partially redundant. Each data set also contains unique information. This leads to fuzzy duplicates within records pertaining to a certain person.The sum of these records result in a more complete information set than their individual representations. However, this requires an apriori identification of the individual representations.

This master thesis, in conjunction with a research project at Neofonie Technologieentwicklung und Informationsmanagement GmbH, will analyse approaches for the detection of duplicates in small, structured and semi-structured data sets pertaining to individuals.

The focus of this work is to identify a procedure for the reliable detection of duplicates in the case of personal data. This procedure is generic in regards to its usability in different scenarios. To achieve this goal, automatic machine learning processes have been implemented to allow for an optimal migration to new application domains. In the scope of this research, a support vector machine will be considered for the classification of duplicates.

In this thesis, the procedure is passed through several evaluation phases to determine the specific characteristics of the identified procedure. This allows for a comparison with other approaches in current research.”

;

weitere Veröffentlichungen

  • 2010:“Adaptive Music News Recommendations based on Large Semantic Datasets”
    Till Plumbaum, Andreas Lommatzsch – Technische Universität Berlin Berlin, Germany
    Stefan Rudnitzki – Neofonie GmbH Berlin, Germany

    presentened on Womrad 2010 (http://womrad.org/2010/index.html)

weitere Erfahrungen

  • SCRUM, Kanban
  • Softwareentwicklung mit Java seit Version 1.2
  • lernbasierte Extraktionsverfahren
  • lernbasierte Klassifikationsverfahren
  • HBase/Hadoop
  • MongoDB
  • Suchtechnologien (Lucene, SOLR)
  • Puppet
  • Vagrant
  • Organisator der MUGBerlin (MongoDB User Group Berlin)