OpenKnowledgeBIM

Aus Wikiversity

Aufgaben aus der gleichnamigen LV an der HsH (BIM-224, SoSe 2021, Blümel) von Lucia Sohmen. (LVs der Folgejahre: 2022 und 2023)

Daten und Metadaten - Harvesting[Bearbeiten]

  • Vorbereitung: Informieren Sie sich auf https://lab.sbb.berlin/dc/ über die verschiedenen Schnittstellen der digitalisierten Sammlung der Staatsbibliothek zu Berlin. Auf https://digital.staatsbibliothek-berlin.de/ können Sie sich die dazugehörigen Digitalisate ansehen. Aufgabe 1: Download von Daten über Digitalisate der Staatsbibliothek zu Berlin

a.      Machen Sie sich mit der OAI-PMH Schnittstelle vertraut.[Bearbeiten]

  • Welche Möglichkeiten gibt es, sich Daten anzeigen zu lassen?
  • Welche Metadatenformate gibt es?
  • Welche Sets gibt es? - Nennen Sie drei. Bitte geben Sie Ihre Antworten im Textfeld der Abgabe ein.

b.      Laden Sie sich eine Auswahl an Daten herunter.[Bearbeiten]

  • Suchen Sie sich ein Set aus und tragen es in der Tabelle ein, damit kein Set doppelt bearbeitet wird.
  • Laden Sie 100 Datensätze im XML-Format aus dem Set herunter (im Dublin Core-Metadatenschema) und speichern Sie sie in einer Datei. (bitte in der Abgabe als Datei hochladen.)

Daten und Metadaten - Weiterverarbeitung[Bearbeiten]

  • Bearbeiten Sie die Daten mit OpenRefine. Dazu müssen Sie zunächst die Software installieren.
    • Hier finden Sie eine Einführung die Prinzipien von OpenRefine:  https://docs.openrefine.org/; bzw. eine weitere gute Übersicht: https://librarycarpentry.org/lc-open-refine/.
    • Erstellen Sie mit den heruntergeladenen Daten ein neues OpenRefine Projekt.
    • Für diese Aufgabe arbeiten wir nur mit einem Teil der Daten. Filtern Sie 10 Records heraus und arbeiten nur mit diesen Daten. Nicht benötigte Zeilen und Spalten können Sie ausblenden.
    • Bei der Reconciliation werden die Werte mit Wikidata Items gematcht. Führen Sie die Reconciliation dort durch, wo es sinnvoll ist.
    • Erstellen Sie nun ein Wikidata Schema. Möglicherweise ergeben sich daraus weitere Bearbeitungen, die an den Spalten gemacht werden müssen. Einige Records müssen wegen fehlender Daten eventuell ausgeschlossen werden.
      • Bitte laden Sie hoch:
        • 2 Screenshots (1x Tabelle mit reconciled Spalten und 1x Wikidata Schema)
        • das exportierte Schema (json Datei)
        • die Quick Statements (txt Datei)

Daten und Metadaten - Weiterbearbeitung und Upload[Bearbeiten]

  • Überarbeiten Sie (sofern nötig) Ihre Daten incl. Schema in OpenRefine um die Daten in Wikidata hochzuladen.
  • Legen Sie sich einen Wikidata-Account an.
  • Abgabe (Texteingabe): Link zum Wikidata-Account, da Ihre Edits hier sichtbar sind.

Daten und Metadaten - SPARQL und Visualisierung[Bearbeiten]

  • Erstellen Sie mindestens zwei SPARQL-Queries zur Abfrage über das Interface https://query.wikidata.org. Lassen Sie sich dabei gerne von Beispielen *) inspirieren. Ziel ist es, Ihre in der vergangenen Aufgabe erstellten Items mit den Kontextinformationen (z.B. Verknüpfung mit weiteren Items wie Autoren aus dem Reconciliation und/oder späterer manueller Ergänzung) in Wikidata zu visualisieren.
    • Tragen Sie die Query und die URL zur Query im Textfeld der Aufgabe ein. Ergänzen Sie bei Bedarf Infos, was Sie darstellen wollten und warum Sie diese Query und Visualisierung gewählt haben.
    • Laden Sie pro Query mindestens einen Screenshot der Visualisierung hoch. Sie können pro Query auch mehrere sinnvolle Visualisierungen hochladen. Sofern hilfreich ergänzen Sie Ihre Q-Items manuell oder via Quickstatements mit weiteren Informationen. Fügen Sie Ihre Items einer Sammlung/Projekt für alle in Ihrem Kurs erstellen Items hinzu. Diese Sammlung legen wir gemeinsam in der LV an: ·        Q107010070

*)

Daten und Metadaten - Download von Bildern über IIIF[Bearbeiten]

  • Finden Sie die IIIF Manifeste von zwei ihrer bearbeiteten Digitalisate.
    • Benutzen Sie https://github.com/YaleDHLab/iiif-downloader, um alle zugehörigen Bilddateien herunterzuladen. Für diese Aufgabe wird Python benötigt. Wenn Sie dies nicht auf Ihrem Rechner installieren können / wollen, gibt es https://colab.research.google.com als Ausweichmöglichkeit.  
    • Laden Sie pro Item jeweils eine Bilddatei herunter und fügen Sie sie als Vorschaubild in das dazugehörige Wikidata Item ein. Fügen Sie außerdem den Link zum Digitalisat auf der StaBi-Seite mit IIIF Manifest ein (sofern noch nicht geschehen). --> geben Sie bitte die Links zu den WD-Items an
    • Zusatzaufgabe: Schreiben Sie ein Programm, um alle Bilder für die Digitalisate des gesamten Datensatzes herunterzuladen. (ebenfalls in Python)