Categories
Forsk

Om wikibaserad datainsamling

Jag har tidigare efterlyst program dels för att underlätta forskningssamarbete enklare, dels för att hantera och analysera textbaserad empiri. Men befintliga Caqdas-program imponerade inte och de förslag jag fick via Academic Productivity var inte riktigt vad vi var ute efter heller. Nu har vi dock gjort vårt val: MediaWiki, programvaran under huven på Wikipedia.

MediaWiki är förstås inte i första hand avsett för att hjälpa små forskargrupper att samarbeta eller att samla in kvalitativa data, men det funkar bättre för våra syften än vi först anade. Några av de mer uppenbara fördelarna:

  • Öppen källkod, vilket borgar för att det är gratis för all framtid och har en livlig community kring sig för support och utveckling.
  • Webbaserat. Vi kan nå det var som helst.
  • Låg inlärningströskel. Gränssnittet är etablerat.

Billigt i drift är det också: Knappt 1 000 kronor inklusive moms för tre års webbhotell och domän. ((I teorin skulle vi förstås kunna köra det gratis på en server tillhörig universitetet — gratis i betydelsen “vi betalar ju hur som helst redan lokalavgifter på våra projektmedel där grundläggande IT-service borde ingå”.

Men en IT-avdelning vägrade blankt installera något på sina webbservrar som inte följde den grafiska profilen. Den andra IT-avdelningen väntar vi fortfarande på svar ifrån. Någon med insyn menade dock att det lär finnas en grupp som utreder behov och möjligheter av att eventuellt ge forskargrupper den här sortens stöd. Ah, management by tillsätta utredning, denna underbara ledningsfilosofi. Jag gissar att den utredningen inte kommer att ha fikat färdigt förrän vårt projekt är över.

Så vi köpte webbresurserna utanför organisationen och har nu en server där vi installerar vad vi vill, utan att behöva be småpåvarna i Staben om lov. Nu väntar vi bara på att någon fakturahanteringsbyråkrat ska stoppa oss för att vi har köpt tjänsten där den var billigast istället för av en ramavtalsleverantör. Snälla, skvallra inte!))

Så är wikin användbar för att kollaborativt samla in och analysera empiri? Jodå. Redan vår basinstallation av MediaWiki gör det till en fröjd att samla in empiri, även för en förhärdad teoretiker som jag. Wikin vill bli använd, vill bli matad med innehåll.

Vi kör in allt: Empiri, läsanteckningar, utkast till artiklar och så vidare. Wikin minimerar också risken att vi gör dubbelarbete, eftersom vi har realtidskoll på varandras arbete. Den ger oss till och med dagliga arbetsuppgifter: Wanted pages säger till exempel vilka luckor som är viktigast att fylla.

Och redan ett par veckor in i projektet ser vi mönster träda fram som vi kanske inte hade sett annars — åtminstone inte så tydligt, så snabbt. Centrala aktörer utkristalliserar sig: regeringstjänstemän med internationella nätverk, forskare som också är aktivister och tvärtom, politiker som ingår i nätverk över partigränser. Portaldokument — offentliga som informella — tronar upp sig i takt med att de interna länkarna förökar sig. Viktiga händelser ordnar in sig längs våra tidslinjer. Och så vidare.

Det är nu inte så avancerat i sig, men om man ändå kör in all data i en wiki kan man förstås också bearbeta den. Till exempel skulle man kunna göra nätverksanalyser. En enkel variant är att fiska efter vanliga hyperlänkar i materialet.

Men jag tänker mig att man också skulle kunna göra analysen både enklare och mer avancerad genom att bygga en semantisk wiki. Eller? Jag har inte riktigt läst in mig på ämnet än, men tänker att Semantic Wiki-tilläggen skulle kunna förvandla en wiki från en ren textbaserad databas till ett verktyg för att koda och analysera relationella egenskaper mellan data i textsjoken. Och det är klart tuffare, i alla fall på pappret.

Å andra sidan: Sedan jag läste Clay Shirkys diss av den semantiska webben för några år sedan har jag varit tveksam till idén. Det luktar ju logisk-positivistiskt arkivskåp lång väg och för att det ska funka förutsätter det “a world where language is merely math done with words”, som Shirky skriver. Men jag är inte säker på att hans invändningar gäller ett slutet system som en liten projektwiki av det här slaget.

Semantiska webben-tänket har väl också dragit kortare strået. Ta Google Translate, till exempel, den första automatiska översättningstjänst som är riktigt användbar. Den bygger inte på semantik, ordböcker eller teorier om språk och betydelser, utan på att Google helt enkelt hittar stora tvåspråkiga humanöversatta textkorpusar och låter datorerna göra sitt. I teorin kanske det är sämre, men i praktiken funkar det prima, inte minst jämfört med tidigare automatiska översättningstjänster. Nu kommer vi att ha relativt blygsamma textmängder, men man kan ändå tänka sig mer avancerade program som hjälper oss att leta efter mönster i de textbaserade data vi matar wikin med, och som inte bygger på att man själv först semantikkodar allt som är intressant.

Några funderingar kring tillägg:

  • Wikiformateringen ger mig redan Alt Gr-tumme, och att lägga till semantiska metadata verkar inte direkt dra ned på hakparenteserna. Här skulle wysiwym-redigering underlätta, men det tycks fortfarande ligga på experimentstadiet.
  • Cite Vi har inte riktigt fått fason på referenshanteringen i MediaWiki. Men Cite-tillägget låter en inte bara skapa fotnoter, utan också klippa och klistra referenser direkt från Zotero, vilket underlättar arbetet rejält. Där finns också ett bibliografitillägg vi ännu inte har testat. Helst skulle man förstås vilja ha en samlad databas för alla referenser, som kan läsas och skrivas både av Mediawiki och av Zotero, för att minimera dubbeljobb. Men det kommer väl.
  • Easy Timeline — ett tillägg för att visualisera tidslinjer — verkar tufft, men tyvärr kan vi inte installera det på vårt webbhotell.
  • Calendar. För att hålla koll på deadlines, konferenser och andra viktiga datum. Fast även här skulle jag vilja kunna synka wiki-kalendern med till exempel Google Calendar.

En av de stora fördelarna med en wiki är förstås kollaborationen, inte bara med inom en liten forskargrupp utan med den vilda webben. Vår wiki befinner sig ännu i embryostadiet, men på sikt måste vi hitta ett sätt att öppna valda delar. En wiki bakom lås och bom är långt ifrån att förverkliga sin potential, samtidigt som man inte vill lätta på hela förlåten i början av ett projekt. Eller vill man det?

9 replies on “Om wikibaserad datainsamling”

Tack för funderingarna kring wiki och semantisk webb!
Själv försökte jag installera en Mediawiki-server på min egen dator men misslyckades. Webb-hotell är klart enklare!

Jag undrar om inte övertron på semantisk webb handlar om just det du skriver: tillit till semantiken. Samt tanken att koppla kunskap och meta-data.

Det är väl snarare datorernas dumhet som hjälper oss att forska och skapa kunskap. Med dumhet menar jag relativt stor förutsättningslöshet. Man kan söka med ganska avancerade kombinationer av citat och google försöker inte lägga sig i och tala om för mig vad det var jag egentligen menade.

Men detta är inte riktigt sant. Redan nu används rankning för att bygga upp sökresultaten. Det finns någon jävel där som klappar mig på huvudet och vill tala om vad det är jag letar efter.

Semantisk webb kanske blir användbart som mot-verktyg (paternalism mot paternalism). Meta-data som banaliserad hierarki kan möjligtvis användas för att hitta andra saker än vad vi hittar genom sökverktyg och genom aktiva länkar i texter.

Jag saknar något som google translate inom det egna språket. Så formulerar sig andra som försöker skriva om samma sak.

Jo, det ligger ju mycket i det. Fast för våra syften — ett avgränsat forskningsprojekt där en handfull personer ska kategorisera och tagga ett omfattande textbaserat material — tänker jag mig att problemen med semantiska webben är mindre. Eller rättare sagt: Vi stöter på de problemen ändå, fast till skillnad från den större webben finns det här en högsta auktoritet som kan/måste bestämma vad som ska hamna i vilken relation till vad.

Än så länge är den stängd för att låta oss utveckla systemet för våra syften. Tanken är ju inte att bara skapa en wiki, utan att använda den som ett redskap för datainsamling och kollaboration inom vårt projekt. Men tanken är att öppna den på sikt.

Det finns ju de som lyfter på förlåten direkt och blottar hela appraten… Men det är väl ingen som vet än om det kommer bli Den Nya Vetenskapen, eller bara nåt ett par galningar gjorde på 00-talet när de trodde att Wikis skulle lösa allt…

Open Notebook Science kallar de det i alla fall. Det har genererat i alla fall en granskad artikel som jag vet om (om kemi), men den handlade mest om metoden, och kom för övrigt i något så konstigt som en videotidskrift.

http://en.wikipedia.org/wiki/Open_Notebook_Science
http://usefulchem.wikispaces.com/

Ja, jag tror jag läste just den artikeln. Wiki-tänket skapar ju en del intressanta problem för just forskare. Vem äger materialet, till exempel? Kan man göra anspråk på att bli citerad som upphovsman till materialet i wikin? Kan kanske lösas genom att vi licensierar allt i wikin under en Creative Commons-licens: Attribution-ShareAlike-NonCommercial. De som bidrar accepterar att det är vårt namn som citeras.

I vårt fall (till skillnad från kemisternas) finns också risken att öppenheten gör oss till en del av vår egen empiri, just eftersom vi bland annat studerar hur expertkunskap används i politiska syften på det fält vi studerar. Problemet är förstås inte unikt för wiki-sättet att arbeta, men kanske gör det mer tydligt.

Överlag balanserar ju forskarsamhället mellan det basariska och katedraliska: Å ena sidan cudos, öppenhet, kollektiva kunskapsbildningsprocesser, remixkultur och så vidare. Å andra sidan parallelt idén om the lone genius, katedralbyggaren, forskaren på sin kammare. Och även om man vill dra åt det basariska bygger många praktiker och institutioner istället på katedraltänket, som man tvingas hantera.

Leave a Reply

Your email address will not be published. Required fields are marked *