Ab morgen #39c3! Freude groß, wieder im Free Knowledge Habitat zu sein. Es gibt einige talks und auskunftsfähige Menschen 😊 zu #Wikidata, #Wikipedia, #Wikimedia, z.b. an Tag 1, 14.15 Einführung Wikidata oder Tag 4, 12.50 Ground: "Who runs the www? WSIS+20 and the future of Internet governance"
https://fahrplan.events.ccc.de/congress/2025/fahrplan/event/who-runs-the-www-wsis20-and-the-future-of-internet
Ab morgen #39c3! Freude groß, wieder im Free Knowledge Habitat zu sein. Es gibt einige talks und auskunftsfähige Menschen 😊 zu #Wikidata, #Wikipedia, #Wikimedia, z.b. an Tag 1, 14.15 Einführung Wikidata oder Tag 4, 12.50 Ground: "Who runs the www? WSIS+20 and the future of Internet governance"
https://fahrplan.events.ccc.de/congress/2025/fahrplan/event/who-runs-the-www-wsis20-and-the-future-of-internet
Two workshops with my @wikimediaDE colleague Cin Pietschmann, in DE and EN, at #39C3 on Day 3:
Wikidata und Kolonialismus in Daten:
https://events.ccc.de/congress/2025/hub/de/event/detail/wikidata-und-kolonialismus-in-daten
Wikidata and Colonialism in Data:
https://events.ccc.de/congress/2025/hub/de/event/detail/wikidata-and-colonialism-in-data
在轉換(成鏈結資料工作流程的)期間,圖書館必須分出有限的人力來處理增量的資料但是卻同時也造成人力的短缺來進行後設資料的建立。在這樣的情境下,鏈結資料(Linked Data)同時是問題的解答以及製造者。鏈結資料系統到底是降低了人力的需求呢 (相較於傳統的紀錄建立模式) ?抑或將圖書館的工作拓展至更多元的資料建立、數據鏈結機會並終將導致人力需求的提升 ?至今為止對鏈結資料所做出的努力是否已經建立足夠的高品質資產 ?畢竟只有超越臨界數量,一般大眾才能在搜尋引擎上發現並體驗圖書館的蒐藏。
雖然這些年來從圖書館社群中所輸出的鏈結資料有著顯著提升 - 包括目錄來自國立圖書館以及識別碼中心如: #美國國會圖書館 的 id.clo.gov ,以及 OCLC 的 #VIAF (Virtual International Authority File #虛擬國際權威檔案 )。鏈結資料的採用需要花費大量的先期投資在建立 "資源-描述" 標準、系統環境、以及工作流程等基礎支援,其規模往往超出一般機構組織所能承擔。這問題困擾了大多數的 #圖書館 在鏈結資料運動的努力。為了獲取所需之資源,領銜者必須先證明採用鏈結資料價值,而其價值的證明卻也需要先前投資才能進行。
摘自【透過 Wikibase 建立屬於圖書館的鏈結資料 Passage 專案的成果 臺灣譯本 簡介】
作為文化工作者、文史資料產出者,我們應該如何將資料公開並讓一般大眾能夠被搜尋到,透過圖書館在 Wikibase 平台上的探索與研究,我們可以以此為案例協助臺灣的文化資料能夠抵達大眾、國際視野。
想要深入了解如何透過鏈結資料工作流程來協助文化工作,歡迎參加 12/26 鏈結資料與圖書館的碰撞:OCLC Passage 專案成果報告翻譯與摘要 講座,活動中我們會摘要文獻中提到的工作流程,並結合臺灣過去的經驗分享未來臺灣社群可採用的方向。
活動報名頁面:https://wikidatatw.kktix.cc/events/wikidatatw2025
#wikidata #鏈結資料 #鏈結開放資料
#Linkeddata #LinkedOpenData #LOD
#Wikibase
#OCLC #維基數據 #維基資料
#活動 #event #攝影圖書室
#臺北市 #大安區
在轉換(成鏈結資料工作流程的)期間,圖書館必須分出有限的人力來處理增量的資料但是卻同時也造成人力的短缺來進行後設資料的建立。在這樣的情境下,鏈結資料(Linked Data)同時是問題的解答以及製造者。鏈結資料系統到底是降低了人力的需求呢 (相較於傳統的紀錄建立模式) ?抑或將圖書館的工作拓展至更多元的資料建立、數據鏈結機會並終將導致人力需求的提升 ?至今為止對鏈結資料所做出的努力是否已經建立足夠的高品質資產 ?畢竟只有超越臨界數量,一般大眾才能在搜尋引擎上發現並體驗圖書館的蒐藏。
雖然這些年來從圖書館社群中所輸出的鏈結資料有著顯著提升 - 包括目錄來自國立圖書館以及識別碼中心如: #美國國會圖書館 的 id.clo.gov ,以及 OCLC 的 #VIAF (Virtual International Authority File #虛擬國際權威檔案 )。鏈結資料的採用需要花費大量的先期投資在建立 "資源-描述" 標準、系統環境、以及工作流程等基礎支援,其規模往往超出一般機構組織所能承擔。這問題困擾了大多數的 #圖書館 在鏈結資料運動的努力。為了獲取所需之資源,領銜者必須先證明採用鏈結資料價值,而其價值的證明卻也需要先前投資才能進行。
摘自【透過 Wikibase 建立屬於圖書館的鏈結資料 Passage 專案的成果 臺灣譯本 簡介】
作為文化工作者、文史資料產出者,我們應該如何將資料公開並讓一般大眾能夠被搜尋到,透過圖書館在 Wikibase 平台上的探索與研究,我們可以以此為案例協助臺灣的文化資料能夠抵達大眾、國際視野。
想要深入了解如何透過鏈結資料工作流程來協助文化工作,歡迎參加 12/26 鏈結資料與圖書館的碰撞:OCLC Passage 專案成果報告翻譯與摘要 講座,活動中我們會摘要文獻中提到的工作流程,並結合臺灣過去的經驗分享未來臺灣社群可採用的方向。
活動報名頁面:https://wikidatatw.kktix.cc/events/wikidatatw2025
#wikidata #鏈結資料 #鏈結開放資料
#Linkeddata #LinkedOpenData #LOD
#Wikibase
#OCLC #維基數據 #維基資料
#活動 #event #攝影圖書室
#臺北市 #大安區
I started a #Wikidata item for the new Digital Commons European Digital Infrastructure Consortium. What more can we say about it? #Call4edits #DCEDIC
https://www.wikidata.org/wiki/Q137401464
📣 Natural Product Occurrence of the Day
🧪 Spirostan-3,12-diol [https://www.wikidata.org/wiki/Q82913422] is a molecule
found in a 🌿 plant, sisal [https://www.wikidata.org/wiki/Q159221]
📚 according to: Cytotoxic steroidal saponins from Agave sisalana [https://www.wikidata.org/wiki/Q39606563]
✏️ This occurrence is available for curation on Wikidata [https://www.wikidata.org/wiki/Q82913422#P703]. If you spot an error, feel free to improve it!
Open Data Practices of Art Museums in Wikidata: A Compliance Assessment. Dişli/Candela/Gutiérrez/Fontenelle. JOHD 2025
"This work focuses explicitly on Art museums in Wikidata. It aims to benchmark their adoption of key open data best practices using defined open data compliance criteria. Examples of the criteria defined include providing machine-readable data, ensuring licencing clarity, and enabling reuse through APIs and examples."
In #Wikimedia land, I created my first #Lua module in #WikimediaCommons: https://commons.wikimedia.org/wiki/Module:NHCP_marker_depicts_inscription
This module does all the heavy lifting for enhancing file pages of photos of #HistoricalMarkers of the #Philippines 🇵🇭 with #Wikidata items. It provides a way to point to the Wikidata item about the marker and to show the actual text inscribed in the marker. This is all done by just adding the {{NHCP marker depicts inscription}} template. 🧵 1/3
Beim #39C3 findet ihr mich hier:
Free Knowledge Habitat https://events.ccc.de/congress/2025/hub/de/assembly/detail/free-knowledge-habitat
und hier:
Proving Ground Assembly https://events.ccc.de/congress/2025/hub/de/assembly/detail/provingground
Im Free Knowledge Habitat bieten wir von @wikimediaDE einen Workshop zu #Wikidata und Kolonialismus an
In der Proving Ground Assembly helfe ich beim Community #Archiv von @MuseumfZK
Das Free Knowledge Habitat ist neben der Telefonstelle, das Proving Ground Archiv neben der Chaos-Post. Bestens vernetzt also :)
GPT-5 ist programmiert, eine Antwort zu geben auch wenn es keine Informationen hat (Screenshot des "Reasoning" Protokolls bei Copilot). Es ist also programmiert zu lügen.
Für ein Gemälde hat es sich bei mir gerade einen Katalog ausgedacht und dann die Information zurückgezogen ("retracted").
Ich glaube das sind interessante Beispiele für die Lehre, diese Schritte mal mit Studierenden durchzugehen, und zu sehen wie schnell der Chatbot zugibt zu lügen.
Hintergrund dieser Anfrage war, dass die Suchergebnisse von Social Media Posts ohne Datierung geflutet waren. Dann wäre die Frage ob ein LLM aus dieser Flut was rausfiltern kann. Dem steht diese einprogrammierte Halluzination entgegen, die hier schön nachvollzogen werden kann.
Auf #Wikimedia Commons steht seit mehr als 10 Jahren das früheste Ausstellungsdatum mit Verweis auf immerhin ein Blogpost: https://commons.wikimedia.org/wiki/File:Il_Barbagianni_The_Owl_by_Valentine_Cameron_Prinsep.jpg Auf #Wikidata gibt es das Gemälde noch nicht.
I started a #Wikidata item for the new Digital Commons European Digital Infrastructure Consortium. What more can we say about it? #Call4edits #DCEDIC
https://www.wikidata.org/wiki/Q137401464
📣 Natural Product Occurrence of the Day
🧪 Spirostan-3,12-diol [https://www.wikidata.org/wiki/Q82913422] is a molecule
found in a 🌿 plant, sisal [https://www.wikidata.org/wiki/Q159221]
📚 according to: Cytotoxic steroidal saponins from Agave sisalana [https://www.wikidata.org/wiki/Q39606563]
✏️ This occurrence is available for curation on Wikidata [https://www.wikidata.org/wiki/Q82913422#P703]. If you spot an error, feel free to improve it!
Albums that are also something else (they shouldn't be).
📊 #Wikidata 🎶🎵 #ExMusica 🧼 #CleanUpQueries
Yet again we lean on @mahir256
2026 Wikimedia Research Fund:
"The Research Fund supports individuals, groups, and organizations with expertise and interest in conducting research on or about Wikimedia projects. [...]
Applicants should be established Wikimedia researchers (i.e., people with a history of conducting research related to Wikimedia projects) or established researchers who want to become Wikimedia researchers."
Map of #Wikidata items in #Sweden missing an "instance of" statement. https://w.wiki/FTY8
#call4edits
new blog: "Rescuing Scholia: will we make it in time?" https://doi.org/10.59350/yh369-rr787 https://chem-bla-ics.linkedchemistry.info/2025/12/08/rescuing-scholia.html
"What started out in 2016 on Twitter became a (small) award winning decade long collaborative project. Unfortunately, the future is not clear. We are at odds if it will survice the growth of Wikidata and in particularly the SPARQL graph split."
[ #WikibaseCLI] The latest release, v19.3.0, improves support for claim reconciliation: this is typically useful to add a claim unless it already exists https://github.com/maxlath/wikibase-cli/blob/main/docs/write_operations.md#add-claim-unless-it-already-exists
Wikidatans and Commonists, Wikisourcers and Metadata scrapers, Large Scale Reusers and Sharers...
from: Amanda Bittaker, Structured Data on Wikimedia Commons - stakeholder map - June 2017, CC BY-SA 3.0
new blog: "Rescuing Scholia: will we make it in time?" https://doi.org/10.59350/yh369-rr787 https://chem-bla-ics.linkedchemistry.info/2025/12/08/rescuing-scholia.html
"What started out in 2016 on Twitter became a (small) award winning decade long collaborative project. Unfortunately, the future is not clear. We are at odds if it will survice the growth of Wikidata and in particularly the SPARQL graph split."