WikidataCon2021 Summaries

Aus Wikiversity
WikidataCon 2021
WikidataCon 2021

Zusammenfassung von ausgewählten Wikidata Con 2021 Sessions anhand von Fragen

  • In welchem Kontext wird Wikidata in der vorliegenden Session behandelt - analytisch oder methodisch?
  • Lassen sich Erkenntnisse oder Empfehlungen für das allgemeine Arbeiten mit Wikidata ableiten?
  • In wie weit können die vorgestellten Überlegungen in einem eigenen Projekt eingesetzt werden? Ein Beispiel bringen

Die aufgezählten Sessions sind rein demonstrativ und können jederzeit ergänzt werden aus der Fülle der vielen Beiträge der WikidataCon 2021.

(Diese Summaries wurden initial als Aufgabe der Lehrveranstaltung Open Government und Open Data an der Hoschule der Medien, Stuttgart angelegt)

Wikidata for authority control: sharing museum knowledge with the world[Bearbeiten]

In dem Vortrag wird erläutert, wie Wikidata von GLAMS (Galleries, Libraries, Archives, Museums), genutzt werden kann um mit ihren Daten Linked Open Data Landscapes zu bilden, um die Verbreitung von freien Wissen im Internet voranzutreiben. Wie kann also die Arbeit dieser Institutionen auf Wikidata integriert werden und welche Vorteile ergeben sich daraus? Wie können Mitarbeiter geschult werden und welche Tools bieten sich dafür an?

Üblicherweise geben GLAMs ihre Daten einfach frei und überlassen es dann der Community, diese zu säubern, zu bearbeiten und auf Wikidata hochzuladen. Es wäre jedoch von großen Vorteil für Wikidata und die GLAMS selbst, wenn deren Mitarbeiter auch als aktive Wikidata Contributors gewonnen werden können. Denn die Übertragung der Daten in Linked Data Landscapes ermöglicht es etwa, diese auf unterschiedlichste Art und Weise zu visualisieren und zu verknüpfen, sodass sich neue Erkenntnisse oder Forschungsansätze ergeben können.

Die GLAM Mitarbeiter lernen die benötigten Fähigkeiten dafür idealerweise in Workshops, die ihnen vermitteln, wie Wikidata funktioniert, wie Cultural Heritage Items dort modelliert werden können und wie man mit SPARQL arbeiten kann. Zwei besonders nützliche Tools die dabei vorgestellt werden sind dabei OpenRefine und InteGraality.

OpenRefine ist ideal, da es alle Schritte abdeckt um Daten für Wikidata aufzubereiten. Die Daten können analysiert, gereinigt, mit eventuel bereits vorhandenen Wikidata-Objekten in Übereinstimmung gebracht und anhand von Wikidata Schemata direkt hochgeladen werden. So können schnell Posts mit fehlenden Informationen oder Duplikate identifiziert werden. Außerdem bekommen auch die GLAM Mitarbeiter selbst einen besseren Überblick über die Daten in ihren Datenbanken. Hilfreich dabei ist, dass GREL auch für Menschen ohne große Coding-Erfahrung leicht anwendbar ist.

Bei dem zweiten Tool handelt es sich um InteGraality. Es ist in der Lage Dashboards von beliebigen Wikidata Objekten zu erstellen. Diese können dann zum Beispiel beliebig neu gruppiert werden. Dies bietet einen sehr guten Ansatz, um sich einen Überblick über Daten zu verschaffen und diese zu verbessern.

Assessing the quality of sources in Wikidata across languages[Bearbeiten]

Gabriel Amaral möchte mit seiner Arbeit Qualität in Wikidata definieren und bewerten. Dabei liegt der Fokus auf den Verweisen in Wikidata. Es wurden 60.000 Verweise, wovon 2310 mit einer URL in 6 Sprachen identifiziert. Mithilfe von API-Aufrufen wurde nach speziellen Kirterien die Qualität der Verweise geprüft. Ein Teil wurde auch durch Croudsourcing verifiziert. Jedem Verweis wurden mehrere Labels gegeben, anhand derer anschließend Analysen gemacht wurden.

From Google Scholar to Wikidata: The RIDC NeuroMat Experience[Bearbeiten]

Die Arbeit, mit der sich der Beitrag befasst, rückt die qualitative sowie quantitative Arbeit bzgl. der wissenschaftlichen Weiterentwicklung von Forschung in den Themengebieten der Neurowissenschaften und interdisziplinären Forschungsquellen nahe, mithilfe von Wikipedia die Bekanntmachung sowie akkurate Darstellung von konsultierbaren Forschungsgegenständen ermöglicht werden soll. Der Fokus liegt hierbei bei der Weiterentwicklung von Neuromates, das als Projekt für das Forschungszentrum Innovation und Verbreitung der Neuromathematik dient. Gründüng des Forschungszentrums der Universität Sao Paolo Brasilien 2013; mit der Unterstützung der Sao Paulo Forschung Stiftung (FAPESP). Der 'NeuroMat ermöglicht die Schaffung eines interdisziplinären Forschernetzwerks, das unter anderem Mathematik, Informatik, Statistik, Neurowissenschaften, Biologie, Physik und Kommunikation umfasst. Koordinator des Forschungscenters ist der Mathematiker Antonio Galves.

Bezogen auf die wissenschaftlichen Arbeiten von NeuroMat haben die Forscher dessen akademische Inhalte auf der Google Scholar Suchmaschine analysiert und kritisch begutachtet. Dabei wurden die personenbezogenen Metriken (social indicators) der wissenschaftlichen Quellen überprüft (Anzahl der Publikationen, Anzahl der Zitationen, co-Authoren, Wissenschaftsbereich, Land, etc.). Die Nutzung von Google-Scholar, so die Forscher, brachte einige Kritikpunkte mit sich, die sich zum Nachteil bzgl. der akkuraten und effizienten Verbreitung der NeuroMat Forschungsquellen auswirkte; darunter begrenzte Möglichkeit zur Visualisierung de Datenanalyse sowie der Metadaten, Performanz der Suchanfragen, Verlust von relevanten Suchergebnisse durch Algorithmus, nicht akademische Resultate.

Um diese Nachteile zu umgehen haben sich die Forscher von einer Plattform namens Scholia leiten lassen – ins Leben gerufen von Fnielsen https://en.wikipedia.org/wiki/User:Fnielsen. Dabei wird die Visualisierung sowie Verwaltung von Inhalten auf Wikidata erklärt. Im Rahmen einer Wiki-Zitier-Initiative wurde Scholia von den Forschern als Inspirationsquelle genutzt, die darauf abzielt, bibliografische Metadaten in Wiki Daten zu indexieren - bietet ein akademisches Profil für viele Arten von Entitäten (Veranstaltungen, Institutionen, Autoren etc.) NeuroMat profile in Scholia [http://>Scholia.toolforge.org/organization/Q18477654<

Aus den Erfahrungen heraus haben sich letztlich die Forscher überlegt, die Inhalte der NeuroMat Plattform für eine breite Masse zugänglich zu machen sowie dabei wissenschaftlichen Kriterien Folge zu leisten. Dafür sollen Inhalte auf Wikipedia zur Verfügung gestellt sowie fortwährende Informationen hinzugefügt werden. Die Zusammenarbeit von NeuroMat mit Wikipedia begann vor etwas mehr als einem Jahr, und seither wurden mit Hilfe der Forscher rund 80 Einträge erstellt und verbessert.

Die Arbeit beschränkt sich daher nicht nur auf die ohnehin schon große Herausforderung, Mathematik zu entwickeln, um die Prozesse zu analysieren, die im menschlichen Gehirn und zwischen den Neuronen ablaufen, sondern umfasst auch die Kommunikation mit der Gesellschaft, um ihr das Verständnis für die Wissenschaft und ihr Engagement für die wissenschaftliche Entwicklung zu erleichtern, dabei soll Wikipedia helfen.

Official webpage neuromat.numec.prp.usp.br

Improving Women's Biographies through Wikidata - Experiences from Women in Red and the Smiths. Inst.[Bearbeiten]

Die Session befasst sich mit Werkzeugen, die Verwendung in der women in red Kampagne finden können, einer Initiative, die sich dafür stark macht den Gender-Gap bezüglich Frauenbiographien in der Wikipedia zu verringern.

Mit dem denelezh tool können Geschlechterverhältnisse in den biographischen Wikipediaartikeln nach verschiedenen Gesichtspunkten visualisiert werden.

Mit humaniki lassen sich Geschlechterverhältnisse in Wikipedia, nach verschiedenen Facetten anzeigen.

Vorgestellt wird auch die Initiative because of her story der Museumsinstitution Smithsonian Institution

Die FunkList, eine Initiative von Dr. Vicki Funk sammelt Namen von Wissenschaftlerinnen um Wikipediaartikel über diese zu verfassen. Hierfür kann Mbabel genutzt werden, ein Werkzeug um aus Wikidatainformationen ein Template für Wikipediaartikel baut (diese Technikseite bietet sich für das Übersetzungsprojekt an)

Im Weiteren wird die Arbeit und Probleme mit dem Tool „listeria“ beschrieben.

Ein Wikidata Knowledge Graph wird vorgestellt und erläutert wie sich mittels diesem Spartenübergreifendes Wissen generieren lässt.

Der Status und Nutzen von maschineller Übersetzung auf Wikipedia ist ein weiteres Thema der Session.

Das Wikidata Edit Framework, eine JavaSkcript-Anwendung wird vorgestellt.

Fazit: Die Auseinandersetzung mit Wikidata in der besprochenen Session ist demnach eine methodische. Die Vorgestellten Tools lassen sich größtenteils auch für andere Vorhaben verwenden. Allerdings habe ich für mein (Haupt-)Projekt noch keinen UseCase ausmachen können.

Integrating Wikidata into education[Bearbeiten]

IFLA Wikidata Working Group: Updates from the library field[Bearbeiten]

50 cool new things you can now do with our collection highlights[Bearbeiten]


Einführung[Bearbeiten]

Das Youtube-Video 50 cool new things you can now do with our collection highlights ist ein Beitrag der Nationale Bibliotheek KB der Niederlande. Präsentiert wird dieser Beitrag von Olaf Janssen, der Koordinator für Open Data und Wikimedia. Mit seiner Kooperation entlastet er die Zusammenarbeit zwischen den Sammlungen, dem Wissen, den offenen Daten und den Mitarbeitern der königlichen Bibliothek. Aber nicht nur das. Er Unterstützt durch seine freiwilligen Tätigkeiten auch Projekte der Wikimedia-Bewegung mit den Schwerpunkten Wikidata, Wikimedia Commons und Wikipedia. Zuvor machte er sich seinen Namen durch die Pionierarbeit in der Initiative Europeana und fungierte als einer der Gründer von The European Library.

lorem ipsum Inhalt folgt


Weblinks[Bearbeiten]

How to model a newsreel collection?[Bearbeiten]

Dr. Keren Schatzman aus der "Wikimedia Israel" stellt anhand von Israelische-Film-Archiv Wochenschau-Sammlungen Beispiele über dieses WikiProject vor. Sie bemerkte, dass in Wikidata keine richtigen Wochenschau-Item's gibt, dass nähste wären News oder Film Reihen.

Umsetzung: Die Informationen aus den Filmen/Folgen sollten digitalisiert und getaggt (kenntlich gemacht) werden. die essenziellen Daten im Beispiel waren geographische Koordinaten, Darstellungen von Menschen und Ereignisse und auch (Jahres-)Daten. Die zu guter letzt nach Thema organisiert sind.

Definition und Standardisierung der Grundstrukturen von Wochenschauen

  • Wochenschau Serien
    • Wochenschau filme (Segment)

Segment Relevante Eigenschaften und Grundstrukturen

  • Sortierung der vorhandenen Daten auf Wikidata
  • Hochladen der Metadaten aus der IFA-Sammlung

Fazit: Die Einführung dieses Teilbereichs (Wochen-Sammlungen) kann zukünftig viel Arbeit einspaaren und führt für Audiovisuellen Kulturerben Eindeutigkeit für die Nutzer.

Neben Israel hat die IFA-Sammlung historische Werte, da die englischen Untertitel als internationale Ressource gilt. Die Standardisierung einer solchen Sammlung könnte als Beispiel für zukünftige Projekte anderer Gemeinden, die ähnliche Sammlungen zu Wikidata hinzufügen möchten, dienen.

Linking the Art in the Christian Tradition (ACT) database to Wikidata[Bearbeiten]

Govdirectory - just another WikiProject?[Bearbeiten]

Govdirectory hat die Vision, in der alle Menschen in der Lage sind, sich mit der Regierung auseinanderzusetzen, um eine reaktionsfähige, integrative, partizipative und repräsentative Entscheidungsfindung zu gewährleisten. Es soll ein globales, benutzerfreundliches Verzeichnis von Regierungsbehörden und ihrer Online-Präsenz werden, indem es Wikidata nutzt.

Um die ganze Welt abzudecken, wird das Projekt in mehrere kleine Teile gegliedert. Govdirectory teilt sich dabei in Länder auf. Und je nach grüße des Landes wird auch, wenn nötig, eine aufteilung innerhalb des Landes durchgenommen. Durch Progress Indicators wird gekennzeichnet, wie gut die Daten pro Land ist. Dieses „rating“ sieht wie folgt aus:


  • ☆: Basic structures in place, but all current agencies are not confirmed to have an item yet
  • ★: All current agencies are known to have items, but not all historic have end data yet
  • ★★: Can produce a complete and accurate list of all current agencies
  • ★★★: All agencies can be queried for their level/type and the structure is documented on the country page
  • ★★★★: Import of official data for Classification of the Functions of Government (P9798) has been made.
  • ★★★★★: A manual review has been made on each agency for which online accounts they have. The review is documented on the country page with a date.

(Auszug: WikiProject Govdirectory)

Shared Citations - A proposed citation management database for Wikimedia[Bearbeiten]

tb167

  • Video: youtube.com
  • Im Video stellt Liam Wyatt einen eigenen Vorschlag für die Wikimedia Foundation mit dem Konzept vor, eine Datenbank an Wikimedia Zitationen umzusetzen. Dabei geht er zunächst allgemein auf Zitate/Quellennachweise ein, welche Probleme damit einhergehen und wie der aktuelle Stand ist.

Relevanz der Zitationen

  • Quellennachweise als Kern für Anti-Desinformation
  • als Nachweis von Aussagen

Bisherige Probleme

  • Zitation als manueller Prozess, der immer wieder erneut durchgeführt wird
  • Zitationen werden im "Rohformat" inline auf jeder Seite einzeln gespeichert
  • dadurch viel Redundanz, hoher Wartungsaufwand
  • durch manuelle, monotone Arbeit wenig beliebt und zudem fehleranfällig
  • es können über Cite Q zwar bereits Zitationen wiederverwendet werden, jedoch müssen diese dafür zuerst als WikiData Item vorhanden sein.

neuer Vorschlag / Konzept

  • neuer Dienst als zentrale Datenbank von Wikimedia Zitationen
  • (bessere) Integration in das Wikiversum, sowohl was die Überwachung (welche Quelle wurde von wo aus verändert), als auch das Bearbeiten betrifft.
  • wenn eine Zitation also an einer Stelle verändert/korrigiert wird, wird es ebenso auf allen anderen Seiten korrigiert, die dieselbe Zitation verwendet haben

Prinzipien

  • Zitations-Items werden von Community Mitgliedern erstellt, sobald sie als Quellennachweise verwendet werden
  • bisherige Zitationen dürfen weiterhin bestehen
  • lokale Wikis können Anzeigeformat der Quellen bestimmen
  • lokale Wikis können die Voraussetzungen an eine Quelle selbst bestimmen

Exemplarisch hat Liam Wyatt dazu bereits eine Mögliche Implementierung vorgestellt und wie etwa Zitationen in Wikis eingebunden werden können.

Persönliche Meinung: Ich kann den Gedanken von Wyatt teilen und sehe es ebenfalls problematisch, dass Quellennachweise stets manuell auf jeder Seite angelegt werden und etwa alle Angaben zu Quelle von Hand im Raw-Editor Inline getippt werden müssen. Hier wäre es tatsächlich praktischer, Quellen ähnlich eines Wikidata-Items zu erstellen, die anschließend von anderen Nutzern wiederverwendet werden können. Das zentrale Verwalten von Zitationen ist ebenfalls eine tolle Idee und würde viel Potenzial für weitere Auswertungen und Untersuchungen bieten.