salgo60/ProjectOutdoorGyms

Kunskapsfråga - (out of context)

Closed this issue · 55 comments

Cool video! Lärde mig mycket. Såg att du visade att openstreetmap kan länka tillbaka till ett q-nummer i wikidata. Vet du om det används av arbetsgivare för att beskriva sina arbetsplatser/företag i någon omfattning idag? Finns lite att utforska för vår verksamhet tänker jag (jobtech/af)? Sorry att jag smutsar ner din tråd om utegym. Kan slänga in en fråga om utegym, har märkt att flertalet utegym har chinsstänger som är designade av personer som aldrig gjort en chin, dvs att stången inte är stum. Antar att den datapunkten inte i ditt dataset.. =)

Det är nästan inga privata svenska företag i Wikidata i dagsläget. Det finns vad jag vet inga öppna data alls om privata svenska företag.
Företagen skulle själva ihop kunna göra en graf, för den datamängden kanske inte passar jättebra i Wikidata.
Alla världens företag kommer troligtvis aldrig att läggas in i Wikidata.

@jonassodergren smuts sparar jag på så mer tack

att flertalet utegym har chinsstänger som är designade av personer som aldrig gjort en chin, dvs att stången inte är stum.>

Jag är inte där ens i tanken mina tankar snurrar mer kring att man borde ha länkade data från leverantörerna vilka maskiner dom levererar och vilka muskelgrupper dom tränar se mina tankar vid min 19:00

Tanke QRC koder på alla kommuners saker
@jonassodergren vi pratade om persistenta dentifierare,... en QRC kod är en kandidat till en persistent identifierar --> den skulle finnas på alla enskilda utegyms stationer så man kan

  • skicka in feedback
  • kan se vilka övningar som kan göras och träningsvideo
  • kunna logga i en app att på maskin xxx med detta länkade datat loggade jag 15 reps, eller om man kör omnigym tror jag dom loggar även vikten man kör med (finns i Sollentuna sedan förra veckan)

Tanke 2
Har man QRC kod och länkade data så skulle din feedback på chins enkelt kunna sammanlänkas med alla andra feedback på chins stänger....

  • typ du skulle kunna filtrera och se vad andra gett för feedback på samma utrustning, samma plats eller i Stockholm...
    • typ Tinder där jag kan välja babes på avstånd och ålder skall du kunna se feedback på chinsstänger
    • men precis som Tinders passport skulle du kunna hoppa över till andra utrustningar

Snygg lösning Stockholms stad feedback
Stockholms stad har tror jag köpt in ett verktyg att visa feedback för en stadsdel på en karta.... liknande bprde kunna gå att göra med utegym men kanske ha muskelgrupper, "karta där man har ont" osv....

OT BILDER

Feedback jag fått*
När jag fotar utegym så försöker jag prata med folk nedan feedback

  1. utegymmen används enormt lite
  2. jag gillar utegym undanskymda i skogen
  3. jag har haft eget kommersiellt gym och det skulle enkelt med några brädor gå att göra apparaterna bättre sp man kan variera vikter etc...

@jonassodergren jag tror inte vi förstår hur mycket dialog som behövs... jag var med på ett Open Street Map event och då pratade man om Tag:access delivery dvs. med alla budjobb är det enormt viktigt att märka ut på husen vilken dörr budfirmor skall ta....

Min hemma filosof fundering är att detta måste systematiseras så vi inte får som för anslagstavlorna 290 smaker av kravinsamling...

  • tycker GITHUB där du kan referera Issues i andra repositories är lösningen.... men det finns säkert folk som ser problem...

Såg att du visade att openstreetmap kan länka tillbaka till ett q-nummer i wikidata

@jonassodergren Det är där saker blir intressant att man ramlar över till 5-stardata OSM skriver bra om det / Key:wikidata / Why link to Wikidata?

image

image

image

Gillar idén med QR-koder. Kanske en kod för att räkna besök, en kommun borde vilja se hur allmännyttiga platser används och hur de uppfattas.

Japp feedback borde dagens teknik göra enklare i Holland fick cyklister en knapp på styret som dom tryckte på då dom uppfatta trafiksituationen jobbig.... liknande för astma... Stockholms stads pratskärmar... upplevd trygghet

image

Hade jag trott mer på nationella dataverkstaden hade jag föreslagit att dom skulle implementera något liknande QRpedia där telefonens inställningar avgör vilket Wikipedia språk du kommer till och dom genererar unika QRC koder...

image

Lång video om att koppla ihop med Wikidata, dataportalen, Scholia

POC hur man skulle kunna koppla dataportalen och Anslagstavlorna till Wikipedia

image

  1. skapa Wikipedia konto
  2. Visit your global.js page on Meta: User:/global.js jmf min global.js
  3. Copy in the code:
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:SuperHamster/view-it.js&action=raw&ctype=text/javascript' );  mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/scholia.js&action=raw&ctype=text/javascript' );
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/anslagstavla.js&action=raw&ctype=text/javascript' );
mw.loader.load( '//meta.wikimedia.org/w/index.php?title=User:Salgo60/dataportalen.js&action=raw&ctype=text/javascript' );

En tanke hur strukturerad data skall kopplas till dataportalens dataset med samma som Wikidata, samma med Anslagstavlorna,......

image

  • i videon finns fattigmans linked data med Chrome extension Entity Explosion / intro video
  • inspel på community.dataportal.se att Wikipedia skulle kunna kopplas ihop med Sveriges Öppna data set på dataportalen om vi börjar jobba med semantisk interoperabilitet
  • vid 4 min i videon pratar jag om semantiska utmaningar "kan en bro gå under vatten" se mer om detta ISWC keynote Jamie Taylor Google "Applied semantics: beyond the catalog"
    • 13:46 airports - och knowledge panels - Power of Knowledge Graph: Interlocking data
    • 18:53 Questions of Identity: Class Membership
    • 20:16 Cinemas: are life sports films
    • 21:00 Fire station - a firefighter... is an airport a fire station
    • 21:35 Question of Identity: Entity Equivalence
    • 25:46 "A little semantics goes a long way" James Hendler

Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.

Jag ska rådfråga någon som är duktig på specen. Men jag kollade lite fort: https://www.w3.org/TR/vocab-dcat-2/#Property:resource_identifier. Det ser faktiskt märkligt ut att en identifierare enbart finns på katalogen och inte specifika dataseten i katalogen. Ska undersöka det mer noggrant.

Coolt

Jag har lyft frågan

Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.

Det som är snyggt är vetenskapliga dokument och Scholia där har man gjort hemläxan och infört DOI och ORCID... Google har ett bra dokument "Building Google Dataset Search and Fostering an Open Data Ecosystem"

Sedan är nog 100 miljarders frågan vad är optimalt gissar att det inte är B-laget hos Google som funderar hur saker skall struktureras och göras "findable"...

Steg 0 tror jag att vi får en öppen data vision som är gemensam.

Lyssnar jag på

image och

Röran med Skolmat <-> dataportalen
Hur rörigt det blir med att flera kommuner lägger "dataset" som verkar peka på samma API för skolmaten se notebook

image

sedan

  • kallas dom olika, har eller inte har kategorier som verkar vara kommunens eget påhitt
  • vissa skickas bara med svenska namn och det blir en maskinöversättning eller inte
  • brist på DOI så man vet att det är samma "data set" på Europa portalen som svenska se samma önskan 2020 diggsweden/DCAT-AP-SE#72 (comment)

Fostra en community ;-) starta med DOI
Annan käpphäst är att starta med DOI se DIGGSweden/DCAT-AP-SE/issues/86# dvs. att samma dataset oberoende av i vilken portal det finns alltid har samma DOI så den som "skördar" aldrig tvekar - "Building Google Dataset Search and Fostering an Open Data Ecosystem"

image

Att starta med reconciliation

  • och även våga ta en dialog med dom som laddar upp vilket metadata dom anger

Jämför Google dataset search "Reconciling to the Google Knowledge Graph" se även video "The Google Dataset Search Engine"

image

Att ta ledarskap
Idag finns massa fina Livsmedels visioner men det känns inte som någon översätter detta till data som data. Det behövs en process och bygga upp kunskap vart vi vill och hur...

Jo google har ett bra tänk såklart. Men jag tror att dataportalen.se räcker väldigt långt för Sverige om den börjar användas. Fler behöver nog bara kavla upp ärmarna och börja dela, och när man ändå delar så bör vi börja använda identifierare och tänka till lite på bästa format. Kritiken som lyfts på forumet kan kondenseras till dessa två punkter tror jag. Exempelvis https://www.dataportal.se/sv/datasets/180_5782/jobadlinks-jobbannonsfiler-annonser-jobtechlinks-2021-04-24targz är i format från schema.org och just google med flera är såklart intresserad av att indexera den informationen. Så det går att få dessa portaler att hänga ihop med små medel. I issuen ovan diskuteras kategorisering av dataset om jag förstår rätt, tänker att det inte löser problemet helt. Betrakta exempelvis https://www.dataportal.se/sv/datasets/180_6676/jobsearch-trends , det är id:t 180_6676 som är lite magiskt idag. Givet ett känt sätt att producera det id:t så borde det bli mycket enklare att börja koppla ihop dataseten som du efterfrågar.

Det här inte lätt hur tänker du med datasets/180_6676/jobsearch-trends skall kopplas?

  • gissar man vill att detta skall sitta ihop med liknande dataset i Europa
    • tanken svindlar om man kan koppla ihop detta med vad politikern beslutar om i olika länder se Datastory "Fork me: The version-controlled political party"
    • se hur ML kopplar ihop data om olika skolor och brottslighet samma borde kunna göras med massa annat - "Predicting Arrests: Looking into Chicago’s Crime through Machine Learning
    • fanns ett intressant case där man skulle använda vetenskapliga priser för att koppla ihop det med att utvärdera forskningen i olika länder se mina anteckningar T216409
    • för ett litet språk som svenska gissar jag att Linked data med sitt språkoberoende även gör datat mycket mer användbart... och kan kopplas med andra dataset i världen....

Delar din vision om vad som är möjligt om bara grunderna blir rätt. Källan till API:et ovan är https://data.jobtechdev.se/annonser/search-trends. I den mappen så finns även ett dcat-extrakt som beskriver datasetet. Det jag har svårt att få ihop är att id-numret till datasetet inte skapas av den som skapar datasetet. Tänker att det blir svårt att bygga kunskapsgrafer om den som tillhandahåller ett dataset inte kan länka till sitt egna dataset på ett förutbestämt sätt. Så jag är på en lite mer "basic" nivå än dig. =)

Är inte DOI lösningen? tror inte man skall lita på att saker som dataportalen etc. finns för evigt....

jag är på en lite mer "basic" nivå än dig. =)

nja jag famlar enormt men Wikidata är lite kul eftersom det inbjuder till att testa nya saker...

Jag har inte blivit kompis med DCAT ännu tyvärr...

Exempelvis DOI skulle kunna vara en lösning. Men aktören som tillhandahåller datasetet behöver börja skapa ett sådant id alt annan vettig beständig identifierare. Känns rimligt att det borde gå att beskriva i DCAT.

Det är lite geggigt kollar jag på dct:identifier "https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz#about1" så är det inte trivialt att hitta den på dataportalen

Borde finnas ett mervärde att enkelt kunna hoppa mellan dom olika portaler i en perfekt värld så skulle det finnas kopplingar hos data.europa.eu till andra liknande dataset

  • sidan datasets/180_6143
    • pekar inte på data.europa.eu ?!?!
    • verkar inte visa dct:identifier se ttl
    • klickar man på in English(övre högra hörnet) så skickas man till första sidan
    • nyckelord visas men är inte klickbara
    • har man infört ett eget begrepp ingångssida ?

Precis, alla avser samma dataset, blir geggigt iom att inget unikt identifierar datasetet. Det är så uppenbart att det saknas att jag börjar fundera på om jag tänker fel på något sätt. =)

  1. http://data.europa.eu/88u/distribution/acd525af-f90d-4439-acda-e4b9ccd585ec
  2. https://www.dataportal.se/sv/datasets/180_5811
  3. https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz

Tycker Google AI blog uttrycker det bra "Building Google Dataset Search and Fostering an Open Data Ecosystem" Connecting Replicas of Datasets

Det antipattern jag tycker jag ser är att när tekniker snöar in i RDF syntax tappar man användarna och slutresultatet blir katastrof - gissar att dataportalen och ladda upp data känns komplext för dom som borde kunna den.... Denny som skapade Wikidata pratar ibland om att det skall vara lätt att göra rätt idag är det inte det... tips testa lek med Wikidata jag tycker dom lyckats ganska bra...

Tips2 Kolla lite på citation graphs där lyckas man med att vetenskapliga publikationer kan dyka upp på massa ställen och citera andra tidsskrifter som skrivits av andra gubbar

Annan intressant tanke är att ändringshistoriken skall kommuniceras

"Proper methods of attribution (at the individual and institutional level) are very important for incentivizing digitization, mobilization, and sharing of data deriving from collections (physical and digital). One strategy for elevating the academic value of curatorial actions is to create the necessary infrastructure that captures the breadth of activities undertaken by curatorial staff. Several programs exist for aggregating metrics for research products other than publication"
image
image

SKOS - Simple Knowledge Organization System
ett annan utmaning är när saker inte är samma som men nästan då fungerar SKOS. Jag leker lite med det för Wikidata och Skansen se SkansenWikidata/issues/11

image

Frågan om tillit är intressant. Tycker ovan "affärsmodell" kunde användas mer för dataset https://arbetsformedlingen.se/platsbanken/annonser?s=2 (datakällan är ovan https://data.jobtechdev.se/annonser/jobtechlinks/2022-03-04.tar.gz). Myndigheten kan visa upp flera annonser för användaren, men samtidigt är det tydligt att myndigheten inte kan ansvara för annonsen som den länkar till. Just att länka till wikidata, youtube, andra myndigheters dataset blir mindre av en trustfråga om man faktiskt låter slutanvändaren vara med i bedömningen om de kan lite på informationen. Blir lätt byråkratiskt och en onödig överbyggnad om offentliga organisationer ska få bestämma vilken information som "får vara ihoplänkad".

Bra POC. Det blir ju tydligt (om det inte var det innan) att en fritextsökning inte är optimalt för att "identifiera" ett dataset.

Japp vi måste bort från textsträngar så långt det går. "Things not strings"

Japp tillit är viktigt när vi får detta att snurra

  • bekämpa fakenews (bra kommentar av WD Denny)
  • när vi har SBL i Wikidata sär är det en liten grupp på Riksarkivet av människor som inte ens alla svenska vet om (var den första WD egenskapen jag begärde skapad sep 2016)
  • det jag såg var när jag jobbade med Nobelpriset och Irak och Nadia_Murad det var ont om källor och jag hade ingen aning om deras kvalitet....
  • I WIkipedia finns en tanke att alla källor ligger i Wikidata och sedan refereras dom med mallar se mall Cite Q tyvärr är wikipedianer enormt tröga att tänka i nya banor så det används inte mycket
  • Jag tyckte vi skulle beskriva källor i WIkipedia så läsaren skulle kunna förstå vad man såg men ingen tyckte det var en bra ide se mitt exempel med SBL

En galenskap jag kanske ser komma är det jag ser med projektet Riksdagens corpus är att det saknas bra källor som är maskinläsbara på Riksdagsmän från Riksarkivet och KB fast dom jobbat i 400 år så då måste man välja Wikidata med alla dess fel och brister se welfare-state-analytics/riksdagen-corpus/wiki/

image

Skapade nyss en video hur mycket tid det tar att skapa kvalitet

tror jag starta 2022 jan och har gjort hälften...se dialog med ML projektet

Här är ett exempel på strings från Linköpings kommun:
"Exempel

GET /api/3/schools/nearby/?latitude=57.7840241562&longitude=14.2806602478 HTTP/1.1
Host: skolmaten.se
Client:

HTTP/1.1 200 OK

{
"schools": [
{
"id": 5023781168873472,
"name": "Smedbyns förskola",
"userDistance": 0.0
},
{
"id": 44707002,
"name": "Björnens förskola",
"userDistance": 0.17934306455811086
}
]
}
"
Noter: ingen identifikatorer på skolorna bara strängar.
https://www.linkoping.se/open/data/skolmat/

exempel på strings från Linköpings kommun:

Det galna här är

Lesson learned: är halvt omöjligt att få folk att inse vad Linked data är

Grundfelet man jobbar inte strukturerat utan i SÌLOS och alla har sin agenda att fakturera, visa upp sig, är rädda för förändring se hur skridskoklubbar jobbar

image

Fattar. Men ovan sökning ger id på skolorna? Menar ni att id:et är internt och saknar innebörd?

Det Magnus återkommer till ofta är DOI som är väldigt intressant. Är det fritt fram för vem som helst att börja utfärda dessa? Känns som att en organisation skulle förvalta utgivningen för alla myndigheter.

DOI ... fritt fram för vem som helst att börja utfärda dessa

ingen aning men känns som ett DIGG uppdrag att ha dessa plus att som @dpriskorn tjatar ha en egen Wikidata

Fattar. Men ovan sökning ger id på skolorna? Menar ni att id:et är internt och saknar innebörd?

Felet med skolmat är se Video från 2022 jun och Notebook - API endpunkt

  • att det står köttbullar som text sträng Livsmedelsverkets systemkarta visar att visionen är att man skall identifierar var maten kommer ifrån att
    • dels skall maträtten ha identifierare
    • alla ingridienser (gjordes av Jan AInali på ett event 2019 tror jag)
    • alla leverantörskedjor skall identifieras och ha id
  • att skolan identifieras med en textsträng det finns nu identifierare som Skolverket och SCB underhåller se skolenhetskod WD Property:P7894

Se även*
exempel livsmedel visionen och deras systemkarta

  • alla ingridienser (gjordes av Jan AInali på ett event 2019 tror jag)

Länk: Ainali/tastydata

@jonassodergren jag skrev om gemensam datakatalog så vi hittar alla identifierare finns det planer?

Se https://community.dataportal.se/topic/120/eionet-data-dictionary

På Wikipedia med sin galna värld får vi mycket gratis men många bra design beslut har tagits

  • självklart att stödja alla världens språk
  • eftersom alla kan skriva
    • självklart med att kunna rulla tillbaka
    • självklart kunna jämföra versioner och ha versioner
    • självklart att kunna diskutera på alla objekt
    • självklart att egenskaper i Wikidata finns med kabel på olika språk
    • självklart att kunna merga om August Strindberg på kinesiska råkar bli eget objekt
  • bra designbeslut
    • Sparql så vi kan fråga Wikidata vore kanske bättre med graphql?!?!
    • att skapa externa identifierare
    • att skapa lexeme projektet
    • osv.

Tror man borde göra som skridskoåkarna gör efter varje säsong sätta sig ned och fundera varför dataportalen är vad den är... tycker inte DIGG växt i rollen som digital expertmyndighet utan blir mer diskussionsgrupps poliser...

Kanske vi kan införa ett användbarhetsindex för olika dataset? Där indexet baseras på datasetets uppfyllnad av, finns bra identifierare?, är fokus på things och inte strings, finns det ett känt format som skulle kunnat användas, är formatet öppet?, länkas det till relaterad information etc. Att bara diskutera de kriterierna är intressant, bedömningar kan ju med fördel göras av communityn alá wiki. @Ainali @salgo60 @dpriskorn

Kanske vi kan införa ett användbarhetsindex för olika dataset?

Du menar typ 5 ★ OPEN DATA?

Exakt. Men annan part än den som tillhandahåller datasetet behöver ju göra bedömningen och dokumentera resultatet var min tanke.

Men annan part än den som tillhandahåller datasetet behöver ju göra bedömningen och dokumentera resultatet var min tanke.

Behövs det verkligen? Skalan är ju ganska enkel och lätt att förstå och en myndighet lär ju knappast ljuga i sin självbedömning.

Bara en idé. Vilken självbedömning?

Bara en idé. Vilken självbedömning?

Om femstjärnemodellen införs som ett användbarhetsindex på Dataportalen som ett obligatoriskt fält så blir det uppladdarens (vilket i de allra flesta fall också är myndigheten som producerar datasetet) självbedömning.

Jag tror det är bra med att enkelt kunna dela erfarenheter och/eller var projekt finns som använder ett visst data set..

Kanske sätta upp en Wiki där man kan beskriva problem/önskningar vore bra. Tycker vi hittar hela tiden nya saker i dataset som borde dokumenteras... idag då de flesta inte har en backlog förrsvinner den erfarenheten...

Det utkast jag gjorde på hur jag uppfattar Riksarkivet SBL som är en extremt trovärdig källa men enormt skitigt data som dom är långsamma att rätta...

https://sv.wikipedia.org/wiki/Anv%C3%A4ndare:Salgo60/Source:SBL

Tycker vi ser med Riksdagens data massa saker som bör dokumenteras. När Riksdagen själva saknar en yta för detta kan en wiki vara bra

  • dom säger själva att dom kommer ha den nya identifieraren i sitt data för alla Riksdagsmän WD proposal - Property:P8388
    • lesson learned finns massa data där bara det gamla finns med Property:P1214
  • konstig titelsättning på gamla dokument se video
    • lesson learned Motionerna från 70-talet har ibland rätt kass ocr

Jag gillar idén med att bedöma myndigheterna hur de överlag klarar av att dela öppen länkad data.
Då är det bara 600 bedömningar totalt.
För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.
Kanske om man hade en recessionsmöjlighet på dataportalen för varje datamängd att de skulle kunna få vettig återkoppling.

För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.

Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.

För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.

Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.

Håller med men då betyder det att alla lagdelar måste fungerar. Idag ser vi bara gegga och vi saknar styrning som användare mistral pekar på och då måste vi runda detta...

Samma problem med skalning har vi i Wikidata hela tiden men eftersom det nästan aldrig fungerar så blir det massa merarbete i Wikidata och verktyg som Wikidata:Mismatch_Finder tas fram för att runda dysfunktionella system. Exempel vad vi ser

  • brist på versionshantering källsystemen
  • brist på helpdesknummer hos källsystemet
  • brist på spårbarhet mellan Wikidata och källsystem då det uppstår problem
  • ....

image

Tycker min analogi att myndigheter/kommuner/arkiv... bör vara lika funktionella som proffsiga skridskoklubbar och nedanstående modell är bra... tycker dom flesta vi kommunicerar med är på Level 1 "Process unpredictable, poorly controlled and reactive" --> vi kan inte lita på dom, vi kan inte spåra vad dom gör utan det är en process lika tillförlitlig som att säga till en tonåring att städa sitt rum ;-)

image

--> vi måste runda detta och skapa ett "mellanlager" som alla kan uppdatera... vi har testat dagens system som bygger på att organisationerna själva tar ansvar och bygger upp egen kompetens sedan innan 2013 som du vet video min slutsats dom gör inte sin arbetsuppgiften och vi lider av att dom är på nivå 1 Level 1 "Process unpredictable, poorly controlled and reactive"

image

@Ainali du som varit med på hela resan vad talar för att det skall fungera 2022...? Jag tycker jag ser denna galenskap hela tiden

  • utegym jag skapar 1300 utegym med spec och data på en vecka.... det specas 6 månader inget utegymsdata samlas in eller den data som skapas i ÖDIS projektet uppdateras inte och läggs i ett system som stängs ned efter 2 år
  • Rättsinformationssystemet några 1000 författningar skall samlas in från 100 myndigheter med lite strukturerad data... efter 15 år kommer man på att man inte är kompetent och avbryter aktiviteten trots att SFS 1999:175 säger att man skall leverera
  • ....

För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.

Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.

Håller med om att det enda skalbara och långsiktiga alternativet är att den ansvariga självskattar och redovisar. Min poäng var nog att dels tar det väldigt lång tid (många år) att införa. Går det att prova och se om det skulle tillföra något för låt säga 10 organisationers separat av användarna och inte producenten? Fungerar det inte så fungerar det inte. Fungerar det så är det enklare att skala upp en sådan MVP.

Håller med men då betyder det att alla lagdelar måste fungerar.

Det behövs inga lagändringar för att lägga till ett fält i formuläret på Dataportalen. Inga av de andra fälten finns definierade i lagtext. Det här kan DIGG göra i eftermiddag om de vill.

lagändringar = rätt personer i laget , inte lagtext.... lag hjälper inte när organisationer är dysfunktklnella och saknar ledarskap/vision se Rättsinformationsprojektet och 15 års uthållighet resultat 0

DIGG laget idag sitter och funderar i 4 månader om dom kan ändra en timeout på diskussionsgruppen, dom kan inte ge oss unika helpdesk id:n... enormt rädda.... utan vision.... när jag lyssnade på DIGG i Almedalen verkar dom bara vilja vara kompisar och bli fler...

För varje datamängd skalar inte bra, vi är för få engagerade konsumenter.

Enda sättet att få det att skala är att göra det ett krav för att få publicera, för då finns det någon som har som arbetsuppgift att göra det.

Håller med men då betyder det att alla lagdelar måste fungerar. Idag ser vi bara gegga och vi saknar styrning som användare mistral pekar på och då måste vi runda detta...

Samma problem med skalning har vi i Wikidata hela tiden men eftersom det nästan aldrig fungerar så blir det massa merarbete i Wikidata och verktyg som Wikidata:Mismatch_Finder tas fram för att runda dysfunktionella system. Exempel vad vi ser

  • brist på versionshantering källsystemen

  • brist på helpdesknummer hos källsystemet

  • brist på spårbarhet mellan Wikidata och källsystem då det uppstår problem

  • ....

image

Tycker min analogi att myndigheter/kommuner/arkiv... bör vara lika funktionella som proffsiga skridskoklubbar och nedanstående modell är bra... tycker dom flesta vi kommunicerar med är på Level 1 "Process unpredictable, poorly controlled and reactive" --> vi kan inte lita på dom, vi kan inte spåra vad dom gör utan det är en process lika tillförlitlig som att säga till en tonåring att städa sitt rum ;-)

image

--> vi måste runda detta och skapa ett "mellanlager" som alla kan uppdatera... vi har testat dagens system som bygger på att organisationerna själva tar ansvar och bygger upp egen kompetens sedan innan 2013 som du vet video min slutsats dom gör inte sin arbetsuppgiften och vi lider av att dom är på nivå 1 Level 1 "Process unpredictable, poorly controlled and reactive"

Håller helt med om detta. Det är nog inte dumt med ett buffertlager nu när det är såhär kasst jämt. De får helt enkelt rycka upp sig och städa i eget hus om de ska få vara med i världsklass (i WD).

Levererar de inte så gör de inte det. Då ska man tydligt kunna se vad vi vill ha och vem som klarar av det. På vandringsleder är det 1/290 kommuner vad jag har hittat hittills som klarar av att leverera ett minimum av kvalitet.

Jag tycker vi ska bilda en ny demokratisk ideell organisation för datakonsumenter som bildar opinion på området och ger kudos/pris till dem som faktiskt levererar. Då kan vi fråga tripadvisor, google, öppna Skolplattformen, m.fl. om de vill vara med.

Vi kan vara konkreta med vad vi önskar av myndigheterna och samordning och tvärsektoriell styrning för att faktiskt kunna få till ett vettigt öppen data ekosystem.

Nu har vi ju ett trasigt ekosystem och en massa huvudlösa höns som inte styrs av någon som är tydlig på regeringsnivå. Intresset i politiska partier för öppen data verkar vara lågt. Det skulle vi kunna jobba mera målriktad med också.

Jag tycker vi ska bilda en ny demokratisk ideell organisation

Om du vill slippa det administrativa med driva en organisation känns det som att det är verksamhet som skulle kunna inkluderas i antingen CivicTech Sweden eller Open Knowledge Sweden.

Jag hade en timmes snack med Jonas StorStockholm och saker som ramlade ut

Kan tipsa om https://www.swedishjobtech.se/ (angående värdförening) som har mycket erfarna projektledare och som verkar för öppna data på ett väldigt positivt sätt. De kanske kan vara intresserade av denna dialog. Uppmärksammar de på denna tråd.

Trevligt det "problem" jag fastna i med Jobtechs data och yrken SSYK var att det blev så komplext...

https://phabricator.wikimedia.org/T262906

Apropå arbetsgivare och grafer och länkar så har jag förstått att bolagsverket tar betalt för sin data delvis för att finansiera Svenska akademin (som för övrigt också underpresterar i mina och Magnus ögon för de har skitig data)
Det finns alltså inte någon öppen datamängd att skapa en graf utifrån.
Med andra ord så kommer du få väldigt svårt att länka ihop om inte du först pratar med regeringen och ber dem fixa så datan bliver fri.
Bolagsverket är bunden enligt lag att betala 16 mio årligen till SA så det behövs en lagändring. Kanske skulle kungen själv börja finansiera sin fina akademi framledes? 😉
Kolla hur det ser ut i Norge och Danmark på området. Hur offentliga är företagsdata där?

Tack @jonassodergren för att du pingade oss i Swedish JobTech. Vår ambition är att driva på inom området datadriven matchning, i vid bemärkelse. Vid gör det genom kontakt med politiker och andra personer i myndigheter, företag, organisationer etc. Och vi gör det genom att anordna olika slag av event. Vi har också med hjälp av ett av "våra" startup-företag, https://www.assedon.se/ och data från SCB och TIllväxtverket tagit fram matchningskollen.se Vi tar gärna emot tips och idéer om vad vi skulle kunna göra mer inom vårt område. Eftersom vi arbetar ideellt har vi blygsamma ekonomiska resurser att använda. Kolla gärna på vår sajt swedishjobtech.se vad vi har på gång.

Vår ambition är att driva på inom området datadriven matchning, i vid bemärkelse. Vid gör det genom kontakt med politiker och andra personer i myndigheter, företag, organisationer etc. Och vi gör det genom att anordna olika slag av event.

Skrik till om ni vill ha kontakt @Sjolars

  1. jag har skrivit ihop en Magnus list vad man skall uppfylla för att vara bra att koppla ihop med Wikidata
    1-1) mycket bra video av en enormt skarp utvecklare på Stanford zoom som går igenom den listan vid 26:39 min
  2. Exempel saker jag gör
    2-1) Nobelprize.org notebook - där gjorde vi om hela deras länkmodell för att det var så mycket länkröta... dom har nu samma som Wikidata se litteraturpristagaren https://api.nobelprize.org/2.1/laureate/1004

image

2-2) webscrapar Riksarkivet SBL eftersom dom saknar API - skapar samma som Wikidata egenskap P3217 - detta startade 2016
jag har säkert lagt flera manmånader på detta hade gått snabbare att skriva ett API till dom- blog om SBL i WD

image

image

2-3) Notebook som kollar Svenskt Kvinnobiografiskt lexikon dom har API men fattar inte Linked data pratade på deras stygruppsmöte 2020 slides
2-4) En snabb koll på Historiska yrke i olika databaser och konstatera hur dåligt det är och en inbjudan till massa aktörer att jobba ihop... lesson learned dom föredrar SILOS

image

2-5) Litteraturbanken där litteraturbanken använder Wikidata för att länka Riksarkivet etc... det tragiska här att dom länkar Wikidata mer än Kungliga biblioteket.... se notebook status. Jag har försökt ha en dialog med Kungliga biblioteket om att jobba ihop mer men funkar inte dom vill vara en SILO se video fråga till KB 2018 dec med bra svar av Niklas men 2022 ser vi inget hänt

IA "Litteraturbanken <-> LIBRIS <-> WD #1015" org https://github.com/libris/librisxl/issues/1015
IA "Kvalitetskontroll? Finns wikifunktionalitet?" org https://github.com/libris/librisxl/issues/1019
IA "Dags att utvärdera om ni ska skrota LibrisXL och använda Wikibase istället?" org https://github.com/libris/librisxl/issues/1018
IA "Wikidata and merge issues #1017" https://github.com/libris/librisxl/issues/1017
IA "Support for english #1014" org https://github.com/libris/librisxl/issues/1014
samma fråga 10 Jun 2018 om engelska menyer IA länk till forum LIBRISXL stängt ned efter för mycket kritik

2-6) jag gör en aktivitet med Skansens data salgo60/SkansenWikidata och lite lite med @AnnaKarinSkansen där bland annat jag försöker få dom att fundera över SKOS

image

2-7) kopplat ihop Runstenar och i vilka böcker i Litteraturbanken dom beskrivs på se salgo60/Litteraturbanken_wd_runes skrev ett papper om hur dataroundtripping med bilder kan fungera med Wikicommons som har strukturerat data för bilder video och pratade på LD4 2021 om det video
2-8) Svenska badplatser där jag kopplar Wikidata med havsmyndigheten och EU bad - samma som fungerar dåligt se DIGG forum, samma aktivitet med utegym.... anledningen var att något hittepå projekt med statliga pengar som bara satt och speca... så jag specade i 15 min och samlade in 1300 utegym på en vecka... nu har fler personer på Wikipedia börjat lägga till bilder och utegym. Endast Stockholms stad har bra API se #99 och video feedback jag gjorde / #114.

image

2-9) Svenskt Porträttarkiv så har en gubbe scannat 800 000 bilder och tror jag 500 000 bilder på hus.... jmf 90 museer som lagt upp 2 miljoner bilder på 10 år på Digitalt museum.... vi kopplar samma som WD och hämtar in deras bilder se projektyta för javascript som fixar bildhämtning

image

2-10) Webscrapar Svenska Akademin och skapar samma som Wikidata med en egenskap jag begärde skulle skapas

2-11) Wikidata är dom som har bäst koll på historiska Riksdagsmän --> när ML forskare skall göra om Riksdagstrycket så länkar dom WD se mer info

image

2-12) POC koppla böcker om kyrkor till Wikidata och bok om Riddarholmskyrkan till personer i boken se salgo60/SamlaLibris

image
image

image

2-13) Kopplat ihop Svenska församlingar med Wikidata, Riksarkivet - websida

2-14) Koppla kommuners sidor om medborgarförslag till Wikidata, anslagstavlor och WIkibase.cloud

2-15) Koppla ihop hembyggdsföreningar med WIkidata

2-16) Bokförlaget Kriterium.se lärde dom att skapa poster i WIkidata websida

2-17) old Dashboard e.g. Connect 160 000 artist in Europeana with WD lesson learned they send text strings = #metadatadebt

2-18) tittade även på hur Esam publicerar dokument utan maskinläsbar metadata. Inser då att i lagrummet saknas författningssamlingar --> att jag synade ett havererat projekt Rättsinformations systemet som under 15 år försökt få 100 myndigheter att i maskinläsbar form publicera sina författningar, 2015 gav man upp det som starta 1998 i en 160 siders förstudie Ds 1998:10

  1. Datastory och WD user @miroli har kopplat ihop enormt mycket dels Riksdagsdokument men även skolenheter

@Sjolars Skrik till vad ni vill ha jag uppdaterar mitt inlägg med lite fler länkar.....

En användare @SchermanJ gör en cool grej som @Ainali startade med att koppla Riksdagens dokument till ämnesord se Kopplingssprint

  • jag testade EU API SDGMapper för att se om vi kunde koppla Hållbarhetsmålen till partiernas löften och till motioner i Riksdagen se yta github.com/salgo60/SDGMapperSweden

    • diskussion med dom om att ha Hållbarhetslöftena samma som UN SDG

    Hade bra möte 2019 där Riksdagen sa att dom fundera på att ha ämnesord från Eurovoc som idag finns i Wikidata Property:P5437 men inget har hänt det är lite lite verkstad hos Riksdagen....

    @Ainali försöker samla in alla världens myndigheter i Wikidata --> vi kommer då ha persistenta identifierare vilket jag tror är ett enormt lyft se twitter govdirectory

  • ännu snyggare är en användare som kopplat HD domar till Wikidata och kan se vilka domare som dömmer i domar som dom varit med i att ta fram lagen.... se tweet / video om detta

image

Tack Magnus, //Lars

@Sjolars Skrik till vad ni vill ha jag uppdaterar mitt inlägg med lite fler länkar.....

En användare @SchermanJ gör en cool grej som @Ainali startade med att koppla Riksdagens dokument till ämnesord se Kopplingssprint

  • jag testade EU API SDGMapper för att se om vi kunde koppla Hållbarhetsmålen till partiernas löften och till motioner i Riksdagen se yta github.com/salgo60/SDGMapperSweden

    • diskussion med dom om att ha Hållbarhetslöftena samma som UN SDG

    Hade bra möte 2019 där Riksdagen sa att dom fundera på att ha ämnesord från Eurovoc som idag finns i Wikidata Property:P5437 men inget har hänt det är lite lite verkstad hos Riksdagen....
    @Ainali försöker samla in alla världens myndigheter i Wikidata --> vi kommer då ha persistenta identifierare vilket jag tror är ett enormt lyft se twitter govdirectory

  • ännu snyggare är en användare som kopplat HD domar till Wikidata och kan se vilka domare som dömmer i domar som dom varit med i att ta fram lagen.... se tweet / video om detta

I fallet med motionerna har vi nu strax över 32 000 motioner med ett huvudtema. I fallet med Trafikutskottet är det över 5000 motioner, och cirka 43 % av det totala som har ett ämne. Det börjar bli användbart och möjligt att se vilja ämnen och frågor som är de mest intressanta för ledamöter att driva.