Diese Webseite enthält die Links zu den dezentralen Repositorys mit den Webseiten zu den 3D-Modellen.
Es enthält wie die dezentralen Repositorys ein ungeordnete Liste mit der id = resources:
<ul id="resources">
<li><a href="https://codeforcologne.github.io/linked-distributed-data/ressource-1/ressource-1.html">3D-Modell Resource 1</a></li>
<li><a href="https://codeforcologne.github.io/linked-distributed-data/ressource-2/ressource-2.html">3D-Modell Resource 2</a></li>
</ul>
WebCrawler haben hier den zentralen Einstiegspunkt.
Dieses Repository kann zentral via GitHub gepflegt werden.
Viele Terrabyte Daten von freien 3D-Modellen warten auf ein neues zu Hause, nach dem Verkauf von Sketchfab an Epic. Hier geht es zur Petition mit Hintergrundinformationen dazu.
Zurzeit arbeiten einige Personen daran, den Daten in der Wikiwelt ein neues zu Hause zu geben (Commons:Textured 3D).
Die CC-lizenzierten Modelle von Sketchfab wurden hier gesichert: github.com/traines-source/sketchfab-backup 😀. Dies soll jedoch keine Dauerlösung sein.
Auf vielen Servern der Community gibt es ungenutzten Speicherplatz.
Die Idee zu diesem Prototyp ist es, die Daten dezentral auf Servern zu speichern und diese via JSON-LD zu vernetzen. Damit dies funktioniert, braucht es einen zentralen Einstiegspunkt, der die Links zu den dezentralen Repositorys enthält.
Diese Webseite ist der Prototyp für diesen zentralen Einstiegspunkt.
Um die Fähigkeiten des MS Copilot Agent in VS Code zu testen, wurden die Crawler, Kartenanwendungen und Styles via Prompts erstellt.
Insgesamt sind die Ergebnisse durchaus zufriedenstellend. Hier handelt es sich um Prototypen, die noch nicht für den produktiven Einsatz geeignet sind.
Für einfachen Aufgeben wie diese, sind die Code-Assistenten durchaus geeignet, insbesondere wenn es sich erst einmal nur um Prototypen handelt. Dies funktioniert auch bei proprietärer Software wie der ESRI JS API, ohne öffentliches GitHub Repository.
Falls Code Assistenten genutzt werden, sollte dies unbedingt im Code vermerkt werden, z.B:
# Achtung: Dieser Code wurde (teilweise) mit Hilfe von KI-Tools generiert (Copilot Agent).
# Bitte sorgfältig prüfen und vor dem produktiven Einsatz testen!
Da die Künstliche Intelligenz über keinerlei Verständnis verfügt, was da eigentlich gemacht wird, sind die Fehler bei komplexeren Anwendungen oft sehr schwer zu finden. Der Code sieht erst mal gut aus, macht aber überhaupt keinen Sinn. Diese Art von Fehler ist uns eher fremd. Deshalb ist es wichtig, den Code zu Kennzeichen, wenn dieser mit Hilfe von KI-Tools erstellt wurde. Der Style in diesem Beispiel ist da ein gutes Beispiel. Rote Schrift auf rotem Hintergrund im Header macht keinerlei Sinn, und würde einem Menschen eher nicht passieren.
Im Netz findet sich oft der Begriff Reasonable AI in Zusammenhang mit dem Copilot-Agent. Dies ist jedoch nicht richtig, es findet keinerlei Prüfung der Ergebnisse statt. Ein Zugriff auf den Browser ist nicht möglich.
Der Python basierte Crawler erstellt aus den JSON-LD Daten der 3D-Modell Webseiten ein GeoJSON. Für die hier verwendeten Modelle waren keine Koordinaten in Sketchfab vorhanden, diese wurden manuell hinzugefügt.
Crawler GeoJson Resultierender Datensatz im GeoJSON Format: geojson_results.json Prompt Copilot Agent (Beispiel Maplibre):
Kannst Du mir eine Webkarte auf Basis von Maplibre mit dem GeoJson* erstellen?
Beim Anklicken der Objekte sollen die Objektinformationen ausgegeben werden.
Der Python basierte Crawler speichert die JSON-LD Daten der 3D-Modell Webseiten als JSON Array.
Crawler Resultierender Datensatz im JSON Format:json_ld_results.json Einfache Suche im Sketchfab Style