Kurs:OpenKnowledge24/Lenskatala

Aus Wikiversity

Aufgaben zu Sitzung 2, 15.03.2024[Bearbeiten]

Gartenlaube, Seitenkorrektur[Bearbeiten]

… eine der Seiten im Jahrgang s:Die Gartenlaube (1898), insb. gelbe Seiten in s:Index:Die Gartenlaube (1898)

Zuerst gewählte Seite: Ein Tag an Bord eines Eisbrechers; Heft 1/1898, S. 29-32

Screenshot Bearbeitungsstand Gartenlaube, 1898, Heft 1, S. 29-32

Etwas irritierend: Im Bearbeitungsstand wird nicht genau angegeben, welche Seiten des Artikels bereits Korrektur gelesen wurden. Index zeigt, dass bereits alle Seiten des Artikels grün sind.

Endgültige Wahl: Erkältung; Heft 1/1898, S. 26-28 (27 noch zu korrigieren) Anmerkungen zur Korrektur: Lediglich ein "Ü" musste durch "Ue" ersetzt werden. Markierungen im Text/Scan setzen zu können, wäre hilfreich. Kurze Verwirrung, wo das "fertig"-Label eingetragen wird, aber Seite ist jetzt grün.

… überprüfe und korrigiere bei Bedarf Metadaten der einzelnen Artikelseiten in den jeweiligen Wikidata-Items: Schlagworte/main subject, Bilder/image, Bildunterschriften/media legend.

Wikidata-Seite m.E. vollständig und korrekt.


Nearby[Bearbeiten]

Mein Nearby/Heimatdorf: Bartensleben (Groß Bartensleben hab ich auch noch dazu genommen. Fun Fact: Klein Bartensleben ist größer als Groß Bartensleben.)

Rittergut Groß Bartensleben[Bearbeiten]

Hinzugefügt:

  • Saxony-Anhalt cultural heritage object ID
  • englisches Label und Beschreibung

Wassermühle Groß Bartensleben[Bearbeiten]

Hinzugefügt:

  • Saxony-Anhalt cultural heritage object ID

Aufgaben zu Sitzung 3, 22.03.2024[Bearbeiten]

Wie gut ist das Straßennetz von Hannover in Wikidata und Commons erschlossen?[Bearbeiten]

Testobjekt I: Stöckener Straße

Status vor Bearbeitung:

  • Warum werden die "Connects with" nicht automatisch angezeigt, so wie z.B. bei Achtbeeteweg in Dresden? (Anzahl?)
  • Wie lange bis zur Aktualisierung des Infokastens?

Bearbeitungen auf Wikidata-Seite:

  • connects with Fuhsestraße hinzugefügt
  • connects with Herrenhäuser Straße hinzugefügt
  • ... und weitere fehlende connects with hinzugefügt und bei diesen dann wiederum Stöckener Straße hinzugefügt

Stöckener Straße bei Nearby

Hinzugefügte Straßen tauchen bei Nearby auf, aber auch vorher?

Testobjekt II: Herrenhäuser Straße Koordinaten von Bäcker Ecke Herrenhäuser Straße/Haltenhoffstraße --> Nearby --> Haltenhoffstraße ist kein connects with von Herrenhäuser Straße --> taucht (noch) nicht bei nearby auf

WikiShootMe![Bearbeiten]

Bild zu Bahnhof Immensen-Arpke hinzugefügt

Aufgaben zu Sitzung 4, 05.04.2024[Bearbeiten]

Nach den ersten drei Kursen zum Einstieg ins Wikiversum: Welche Fragen sind offen? Was möchtest du noch vertiefen?[Bearbeiten]

Die Wikimedia-Projekte leben von ihrer Verknüpfung untereinander. Ich glaube, mir hätte es geholfen, die verschiedenen Seiten zunächst getrennt voneinander intensiver zu betrachten. Ich freue mich jedoch darauf, mich stärker in die Wikimedia Commons und Wikidata einzuarbeiten. Zum einen würde ich mich dort gerne den "underdogs" widmen, also der Datenpflege von kleinen Ortschaften wie meinem Heimat- oder Wohnort. Generell würde ich dadurch gern mein Interesse für Fotografie in etwas Sinnvolles umsetzen.

Was war/ist/funktioniert für Dich schon gut bzw. noch nicht?[Bearbeiten]

Ich bin schon eine Weile im Internet unterwegs und auch mit Internetseiten vertraut, deren Design man gnädigerweise als "old-school" beschreiben kann. Die Oberfläche der Wikimedia-Seiten ist schlicht und zweckgebunden, was nicht falsch ist. Meine persönliche Nutzererfahrung hätte jedoch von etwas mehr Farbe profitieren können. Ja, man kann die einzelnen Wikimedia-Projekte sind im Browser an den unterschiedlichen Favicons zu erkennen, aber zur schnelleren Orientierung auf der Seite hätte ich mir farblich verschieden gestaltete Seitenpanels gewünscht. Ich habe zudem viele Jahre mit Wordpress gearbeitet, dort funktioniert vieles mit drag-and-drop, besonders der Upload von Bildern ist unkompliziert. Dass es bei Wikimedia Commons dagegen nicht so intuitiv abläuft, ist für mich zum einen frustrierend und andererseits auch zeitaufwendiger. Abhilfe schaffe ich mir, indem ich ein ähnliches Objekt in einem zweiten Tab geöffnet habe und dann entsprechend die Einstellungen und Informationen übernehme, aber ein flüssiger Arbeitsablauf ist das noch nicht wirklich.

Notizen Data Harvesting, Sitzung 5, 05.04.2024[Bearbeiten]

  • IIIF
  • Zu Aufgabe Explore the Entity API: z.B. Leonardo da Vinci in Europeana über Wikidata-ID finden

Aufgaben zu Sitzung 6, 12.04.2024[Bearbeiten]

Optionale Aufgaben[Bearbeiten]

Noch in Arbeit: Jupyter Notebook zu OAI-PMH angelegt

Pflichtaufgaben[Bearbeiten]

Auswahl Datensatz[Bearbeiten]

Von Pflanzenbelege aus dem Botanischen Garten Berlin gewechselt zu Schriftprobensammlung des BGBM - lässt sich eventuell mit OCR-Hausarbeit für BIM-214-02 kombinieren.

Download Open Refine[Bearbeiten]

  • Erledigt.
  • Lassen sich damit auch JSON-Dateien abspeichern? Wo werden die Daten zwischengespeichert?

Download Daten[Bearbeiten]

  • uagh...
  • API ist irreführend: /list{id} "gets all information about the autograph with the specified id" ist aber tatsächlich die AutorenID
  • wenn explizit nach "ID" oder "DokumentID" gesucht wird --> 404
  • ganz wichtig: Python-Skript für sowas schreiben...
Nachtrag[Bearbeiten]

Mittels ChatGPT Skript für automatisierten Download schreiben lassen.

import requests import json import os

  1. Erstellen Sie einen Ordner mit dem Namen 'downloads', wenn er noch nicht existiert

if not os.path.exists('downloads'):

   os.makedirs('downloads')
  1. Iterieren Sie über die IDs von 1 bis 1362

for id in range(100, 1363):

 # Setzen Sie die URL zusammen
 url = f"https://api.bgbm.org/autographs/v1/list/{id}"
 # Versuchen Sie die Anfrage
 try:
   response = requests.get(url)
 except requests.exceptions.RequestException as e:
   print(f'An exception occurred for id {id}:', e)
   continue
 # Überprüfen Sie den Statuscode der Antwort
 if response.status_code == 200:
   # Wenn die Anforderung erfolgreich ist, speichern Sie die Antwort als JSON
   with open(f'downloads/{id}_BGBM.json', 'w') as outfile:
     json.dump(response.json(), outfile)
 elif response.status_code == 404:
   print(f'No page found for id {id}, skipping...')
   continue
 else:
   print(f'Received unexpected status code {response.status_code} for id {id}, skipping...')

Aufgaben zu Sitzung 7, 19.04.2024[Bearbeiten]

Präsentation Datensatz[Bearbeiten]

Direkt auf der Kursseite eingebunden.

Group task 1[Bearbeiten]

Pick 1 object from your dataset and try to represent the metadata of the object in semantic triples.


Aufgaben zu Sitzung 8, 26.04.2024[Bearbeiten]

Ausfall der VA

Homework[Bearbeiten]

Update Dataset[Bearbeiten]

Direkt auf Kursseite eingebunden.

Diagram[Bearbeiten]

Prepare a diagram of a data model representing your dataset in Wikidata.

Auch auf Kursseite eingebunden