Industrie 4.0 – Worum geht es eigentlich?

Wer schon immer mal wissen wollte was es mit Industrie 4.0 und diesem Internet der Dinge wirklich auf sich hat, hier gibt es für Interessierte ein nettes Video + Artikel zum Thema Industrie 4.0. Maschinen kommunizieren mit einander und dem Menschen.

Wirtschaftsinformatik: Wissensmanagement

Wofür steht Industrie 4.0 und was ist das Internet der Dinge

Ich finde, dieses Video bietet einen guten und klaren Einstieg in die Thematik:

Gerd Ludwig, Geschäftsführer der INTEC International GmbH, Herr Wahner von ITML, und Jochen Hecker von SAP über das Internet of Things (auch IoT) und die Möglichkeiten von intelligenten Fabriken im Zeitalter von Industrie 4.0. Die Digitalisierung der Welt schreitet voran und eröffnet neue Möglichkeiten in Industrie und Logistik. Maschinen werden gesprächig, Blech kann kommunizieren. Völlig neue Möglichkeiten der Prozessdatenspeicherung und Auswertung von Maschinendaten haben sich ergeben und werden in hohem Tempo weiter entwickelt.

Ursprünglichen Post anzeigen

Veröffentlicht unter Uncategorized | Kommentar hinterlassen

Dokumenten Retrieval

Es geht um das möglichst schnelle und möglichst genaue auffinden von Dokumenten.
Szenario:
Man bekommt vom Mutterkonzern ein Dokument zugeschickt, das eine bestimmte, selten angewendete Richtlinie erhält, die eine veraltete Richtlinie ersetzen soll. Also ist es nötig, auf dem Dateiserver (Der Rechner in meinem Unternehmen wo Vorlagen etc. für alles Mögliche liegen) das Dokument mit der alten Richtlinie zu finden, und durch das Dokument mit den neuen Anweisungen zu ersetzen. Um das Dokument zu finden kann ich auf verschiedene Art und Weise vorgehen:
Ich nehme das neue Dokument und sage: „Suche und zeige alle Dokumente auf dem Dateiserver, die diesem Dokument ähnlich sind“

Ich gebe den Titel des neuen Dokuments ein („Richtlinie XY“ o.Ä.) und sage: „Suche und zeige alle Dokumente auf dem Dateiserver die ebenfalls diesen Suchbegriff oder Teile davon beinhalten“
Ich suche nach einem Muster, d.h. nach bestimmten Kriterien von denen ich vermute, dass sie von dem alten Dokument erfüllt werden. Beispiel: Das neue Dokument trägt den Dateinamen 2012-Rezeption-Policy-Lost-and-Found-v014.pdf. Ich vermute, dass der Name des alten Dokuments gewisse Ähnlichkeiten mit der Benennung des neuen Dokuments aufweist und suche auf dem Dateiserver nach einem Dokument, das folgendem Muster entspricht:
• Die ersten 4 Zeichen sind Ziffern
• Die letzten 4 Zeichen sind.pdf
• Die Zeichenkette „Lost-and-Found“ ist enthalten
Wie das in der Praxis eingegeben wird hängt von der verwendeten Software ab, manchmal kann man das zusammenklicken, manchmal gibt man text mit Platzhaltern ein, sieht dann ähnlich aus wie
[0-9] [0-9] [0-9] [0-9].*.Lost-and-Found.*.\.pdf
Die vierte Möglichkeit, das alte Dokument zu finden ist die Suche über Metadaten. Metadaten sind Daten über Daten. Beispiel: Ein Dokument enthält beliebige Daten. Zusätzlich ist das Dokument mit Metadaten verknüpft, die etwas über die enthaltenen Daten aussagen. Zum Beispiel, von wem das Dokument verfasst wurde, der Zeitpunkt der Veröffentlichung, der letzten Änderung, für welche Zielgruppe es geschrieben wurde, für welches Land es relevant ist, etc…

Veröffentlicht unter Dokumenten Retrieval, Metadaten, Metasuche, Semantische Suche | Verschlagwortet mit , , , , , , , , , , , , , , , | Kommentar hinterlassen

Architektur und Konzept von Suchmaschinen

Benutzeroberfläche und Indexdienst

Eine Suchmaschine besteht aus zwei Komponenten, nämlich der Benutzeroberfläche (Das was man sieht, wenn man im Browser http://www.google.de eingibt), und einem für den Benutzer nicht sichtbaren Indexdienst. Im Folgenden zunächst die Beschreibung was die beiden Komponenten einzeln für sich genommen leisten, dann wie sie zusammenwirken um das zu ermöglichen, was wir unter Internetsuche verstehen, also Suchbegriff eingeben und Ergebnisliste angezeigt bekommen.
Indexdienst / Crawler (Robots)

Der Indexdienst besteht aus einem (möglicherweise auch mehreren) Crawlern (Auch Suchmaschinen-Robot, z.B. „Googlebot“ genannt) und einem Satz Vorschriften, wie mit den Ergebnissen des Crawlens zu verfahren ist. Ein Crawler ist Software, die auf einem Rechner mit Internetzugang installiert ist. Etwas vereinfacht beschrieben funktioniert ein Crawler etwa so:

Man füttert ihn mit einer Startadresse (=URL=Universal Resource Locator), zum Beispiel http://informationsmanagement.wordpress.com. Der Crawler schaut sich diese Seite an, und erstellt dabei inbesondere eine Liste aller Links. Viele Links verweisen auf Unterseiten von der Domain http://www.faz.de, wie zum Beispiel http://www.faz.de/politik/, das sind interne Links. Andere Links (externe Links) verweisen auf andere Domains, wie zum Beispiel http://www.tagesschau.de/ . Wenn der Crawler mit der Liste fertig ist, ruft er die Links in der Liste alle auf und macht auf diesen Seiten genau das gleiche wie auf der ersten Seite, mit der er angefangen hat. Der Crawler surft sozusagen selbstständig im Internet und klickt dabei alles an, was man irgendwo anklicken will, und merkt sich dabei immer die Links. Auf diese Art und Weise wird versucht, ein Verzeichnis, einen Katalog von möglichst großen Teilen es Internets zu erstellen.

Veröffentlicht unter Dokumenten Retrieval, Semantische Suche, Suchmaschinen, Suchtechnologien | Kommentar hinterlassen