Waiting
Elaborazione accesso...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Databaser för att effektivt hantera medelstora, låg hastighet, flerdimensionella data i vävnadsteknik

Published: November 22, 2019 doi: 10.3791/60038

Summary

Många forskare genererar "medelstora", låg hastighet, och flerdimensionella data, som kan hanteras mer effektivt med databaser i stället för kalkylblad. Här ger vi en konceptuell översikt över databaser, inklusive visualisering av flerdimensionella data, länkning av tabeller i relationsdatabas strukturer, mappning av halvautomatiserade datapipelines och användning av databasen för att belysa data innebörd.

Abstract

Vetenskapen förlitar sig på alltmer komplexa datauppsättningar för framsteg, men vanliga datahanterings metoder som kalkylbladsprogram är otillräckliga för den växande omfattningen och komplexiteten i den här informationen. Även databashanteringssystem har potential att rätta till dessa frågor, de är inte ofta utnyttjas utanför affärs-och informatik fält. Men många forskningslaboratorier redan generera "medelstora", låg hastighet, flerdimensionella data som kan ha stor nytta av att genomföra liknande system. I den här artikeln ger vi en konceptuell översikt som förklarar hur databaser fungerar och de fördelar de ger i vävnadstekniska tillämpningar. Strukturell fibroblast data från individer med en Lamin A/C-mutation användes för att illustrera exempel inom en viss experimentell kontext. Exempel på detta är att visualisera flerdimensionella data, Länka tabeller i en relationsdatabas struktur, mappa en halvautomatiserad datapipeline för att konvertera rådata till strukturerade format och förklara den underliggande syntaxen för en fråga. Resultat från analys av data användes för att skapa tomter av olika arrangemang och betydelse visades i cell organisation i anpassade miljöer mellan den positiva kontrollen av Hutchinson-Gilford progeri, en välkänd laminopati, och alla andra experimentella grupper. I jämförelse med kalkylblad, databas metoder var enormt tidseffektiv, enkel att använda en gång inrättas, tillåtet för omedelbar tillgång till ursprungliga filplatser, och ökad data noggrannhet. Som svar på National Institutes of Health (NIH) betoning på experimentell stringens, är det troligt att många vetenskapliga områden så småningom kommer att anta databaser som vanlig praxis på grund av deras starka förmåga att effektivt organisera komplexa data.

Introduction

I en tid där vetenskapliga framsteg är starkt driven av teknik, har hantering av stora mängder data blivit en integrerad aspekt av forskning inom alla discipliner. Framväxten av nya områden som beräkningsbiologi och genomik understryker hur kritisk den proaktiva användningen av teknik har blivit. Dessa trender är säkra på att fortsätta på grund av Moores lag och stadig framsteg som vunnits från tekniska framsteg1,2. En konsekvens är dock den ökande mängden genererade data som överskrider kapaciteten hos tidigare livskraftiga organisationsmetoder. Även om de flesta akademiska laboratorier har tillräckliga beräkningsresurser för att hantera komplexa datamängder, saknar många grupper den tekniska expertis som krävs för att konstruera anpassade system som lämpar sig för utvecklingsbehov3. Att ha kunskaper för att hantera och uppdatera sådana datauppsättningar är fortfarande avgörande för effektivt arbetsflöde och utdata. Att överbrygga klyftan mellan data och expertis är viktigt för att effektivt hantera, uppdatera och analysera ett brett spektrum av mångfacetterade data.

Skalbarhet är en viktig faktor vid hantering av stora datamängder. Big data, till exempel, är ett blomstrande område av forskning som innebär att avslöja nya insikter från bearbetning av data som kännetecknas av stora volymer, stora heterogenitet, och höga nivåer av generation, såsom ljud och video4,5. Använda automatiserade metoder för organisation och analys är obligatoriskt för det här fältet för att hantera dataflöden på rätt sätt. Många tekniska termer som används i stordata är dock inte tydligt definierade och kan vara förvirrande; till exempel associeras "hög hastighet"-data ofta med miljontals nya poster per dag, medan "låg hastighet"-data kanske bara är hundratals poster per dag, till exempel i en akademisk labb inställning. Även om det finns många spännande fynd ännu inte upptäcks med hjälp av Big data, de flesta akademiska laboratorier kräver inte omfattningen, makt, och komplexitet sådana metoder för att ta itu med sina egna vetenskapliga frågor5. Även om det är obestridig att vetenskapliga data blir alltmer komplexa med tiden6, många forskare fortsätter att använda metoder för organisation som inte längre uppfyller deras växande databehov. Till exempel är praktiska kalkylprogram ofta används för att organisera vetenskapliga data, men på bekostnad av att vara oskalbar, felbenägna, och tid ineffektiva på lång sikt7,8. Omvänt är databaser en effektiv lösning på problemet eftersom de är skalbara, relativt billiga och enkla att använda för att hantera olika datauppsättningar av pågående projekt.

Omedelbara problem som uppstår när du överväger scheman för data organisation är kostnad, tillgänglighet och tid investering för utbildning och användning. Ofta används i Företagsinställningar, databasprogram är mer ekonomiska, är antingen relativt billigt eller gratis, än den finansiering som krävs för att stödja användningen av Big datasystem. I själva verket finns en mängd olika både kommersiellt tillgänglig och öppen källkod för att skapa och underhålla databaser, såsom Oracle Database, MySQL och Microsoft (MS) Access9. Många forskare skulle också uppmuntras att lära sig att flera MS Office akademiska paket kommer med MS Access ingår, ytterligare minimera kostnaderna överväganden. Dessutom, nästan alla utvecklare tillhandahåller omfattande dokumentation på nätet och det finns en uppsjö av gratis online-resurser som Codecademy, W3Schools, och SQLBolt att hjälpa forskare att förstå och använda strukturerade Query Language (SQL)10,11,12. Liksom alla programmeringsspråk, lära sig att använda databaser och kod med SQL tar tid att behärska, men med rikliga resurser tillgängliga processen är enkel och väl värt ansträngningen investerat.

Databaser kan vara kraftfulla verktyg för att öka datatillgängligheten och underlätta aggregering, men det är viktigt att urskilja vilka data som mest skulle gynnas av en större kontroll över organisationen. Flerdimensionalitet refererar till antalet villkor som en mätning kan grupperas mot, och databaser är mest kraftfulla vid hantering av många olika villkor13. Omvänt är information med låg dimensionalitet enklast att hantera med hjälp av ett kalkylbladsprogram. till exempel har en datauppsättning som innehåller år och ett värde för varje år endast en möjlig gruppering (mätningar mot år). Hög dimensionella data såsom från kliniska inställningar skulle kräva en stor grad av manuell organisation för att effektivt upprätthålla, en långtråkig och felbenägna process utöver omfattningen av kalkylprogram13. Icke-relationella (NoSQL) databaser uppfyller också en mängd olika roller, främst i program där data inte organiserar väl i rader och kolumner14. Förutom att de ofta är öppen källkod, inkluderar dessa organisationsscheman grafiska associationer, tidsseriedata eller dokumentbaserade data. NoSQL utmärker sig vid skalbarhet bättre än SQL, men kan inte skapa komplexa frågor, så relationsdatabaser är bättre i situationer som kräver konsekvens, standardisering och sällan storskaliga dataändringar15. Databaser är bäst på att effektivt gruppera och uppdatera data i det stora utbudet av konformationer som ofta behövs i vetenskapliga inställningar13,16.

Det huvudsakliga syftet med detta arbete är därför att informera forskarsamfundet om potentialen i databaser som skalbara datahanteringssystem för "medelstora", låg hastighet data samt att ge en allmän mall med hjälp av specifika exempel på patient inköpta cell-line experiment. Andra liknande tillämpningar omfattar geospatiala data för flodbäddar, enkäter från longitudinella kliniska studier och mikrobiella tillväxtförhållanden i tillväxt medier17,18,19. Detta arbete belyser vanliga överväganden och nytta av att konstruera en databas tillsammans med en data-pipeline som krävs för att omvandla rådata till strukturerade format. Grunderna i Databasgränssnitt och kodning för databaser i SQL tillhandahålls och illustreras med exempel för att låta andra få den kunskap som gäller för att bygga grundläggande ramverk. Slutligen visar en exempel experimentell datauppsättning hur enkelt och effektivt databaser kan utformas för att aggregera mångfacetterade data på flera olika sätt. Denna information ger kontext, kommentarer och mallar för att hjälpa forskare på vägen mot att implementera databaser för sina egna experimentella behov.

För att skapa en skalbar databas i en forsknings laboratoriemiljö samlades data från experiment med humana fibroblastceller under de senaste tre åren. Det primära syftet med detta protokoll är att rapportera om organisationen av programvara för att göra det möjligt för användaren att aggregera, uppdatera och hantera data på det mest kostnads-och tidseffektiva sättet, men de relevanta experimentella metoderna tillhandahålls också för Sammanhang.

Experimentell installation
Experiment protokollet för beredning av prover har beskrivits tidigare20,21, och presenteras kortfattat här. Konstruktioner bereddes genom spinn-beläggning rektangulära glas täckband med en 10:1 blandning av Polydimetylsiloxan (PDMS) och härdningsmedel, sedan tillämpa 0,05 mg/mL fibronectin, i antingen oorganiserade (isotrop) eller 20 μm linjer med 5 μm gap mikromönstrade arrangemang (linjer). Fibroblastceller var seedade vid passage 7 (eller passage 16 för positiva kontroller) på täckglas vid optimala densiteter och vänster för att växa för 48 h med Media ändras efter 24 h. Cellerna fixades sedan med 4% paraformaldehydlösning (PFA) och 0,0005% nonioniskt ytaktivt ämne, följt av täckglas är immunostained för cellkärnor (4 ', 6 '-diaminodino-2-phenylinodole [DAPI]), aktin (Alexa fluor 488 phalloidin), och Fibronektin (polycloncal kanin anti-human Fibronektin). En sekundär fläck för Fibronektin med get anti-kanin IgG antikroppar (Alexa fluor 750 Goat anti-kanin) tillämpades och bevarande agent var monterad på alla täckglas för att förhindra fluorescerande blekning. Nagellack användes för att försegla täckglas på mikroskopbilder sedan vänster för att torka i 24 h.

Fluorescensbilder erhölls som beskrivits tidigare20 med hjälp av en 40x Oil Immersion mål tillsammans med en digital laddning kopplad enhet (CCD) kamera monterad på ett inverterat motoriserat Mikroskop. Tio slumpmässigt utvalda fält av vyn var avbildas för varje täckslip på 40x förstoring, vilket motsvarar en 6,22 pixlar/μm upplösning. Specialskrivna koder användes för att kvantifiera olika variabler från bilderna som beskriver kärnors, aktin filament och fibronectin; motsvarande värden, samt organisations-och geometri parametrar, sparades automatiskt i datafiler.

Cellinjer
Mer omfattande dokumentation om alla exempeldata cellinjer finns i tidigare publikationer20. För att kortfattat beskriva datainsamlingen godkändes och informerat samtycke utfördes i enlighet med UC Irvine institutionella Review Board (IRB # 2014-1253). Humana fibroblastceller samlades in från tre familjer av olika varianter av Lamin A/C (lmna) genmutation: heterozygot lmna splice-site mutation (C. 357-2a > G)22 (familj A); Lmna nonsenmutation (c. 736 c > T, pQ246X) i exon 423 (familj B); och lmna genom mutation (c. 1003c > T, pR335W) i exon 624 (familj c). Fibroblastceller samlades också in från andra individer i varje familj som relaterade mutation-negativa kontroller, kallad "kontroller", och andra köptes som icke-närstående mutation-negativa kontroller, kallas "givare". Som en positiv kontroll, fibroblast celler från en individ med Hutchinson-Gliford progeri (HGPS) köptes och odlas från en hudbiopsi tas från en 8-årig kvinnlig patient med HGPS innehar en Lmna G608G punktmutation25. Totalt har fibroblaster från 22 individer testats och använts som data i detta arbete.

Data typer
Fibroblast data föll i en av två kategorier: cellulära kärnor variabler (dvs, procent av dysmorphic kärnor, område av kärnor, kärnor excentricitet)20 eller strukturella variabler som härrör från vägledare gällande order parameter (OOP)21,26,27 (dvs., aktin OOP, Fibronektin OOP, kärnor OOP). Denna parameter är lika med den maximala egen värdes av medelvärdet för tensor av alla orienterings vektorer, och det definieras i detalj i tidigare publikationer26,28. Dessa värden sammanställs i en mängd olika möjliga konformationer, såsom värden mot ålder, kön, sjukdomsstatus, förekomst av vissa symtom, etc. Exempel på hur dessa variabler används finns i resultat avsnittet.

Exempel koder och filer
Exempel koderna och andra filer baserade på ovanstående data kan laddas ner med detta papper, och deras namn och typer sammanfattas i tabell 1.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Anmärkning: se tabell över material för programversionerna som används i detta protokoll.

1. utvärdera om data skulle gynnas av ett databas organisations system

  1. Hämta exempel koderna och databaserna (se kompletterande Kodningsfilersom sammanfattas i tabell 1).
  2. Använd figur 1 för att utvärdera om datauppsättningen av intresse är "flerdimensionell".
    Anm: bild 1 är en grafisk representation av en flerdimensionell databas som tillhandahålls för exempeldatauppsättningen.
  3. Om data kan visualiseras i en "flerdimensionell" form som exemplet och om förmågan att relatera ett specifikt experimentellt resultat till någon av dimensionerna (dvs. villkor) skulle möjliggöra större vetenskaplig insikt i tillgängliga data, gå vidare till konstruera en relationsdatabas.

2. organisera databasstrukturen

Relationsdatabaser lagrar information i form av tabeller. Tabeller är ordnade i schemat för rader och kolumner, liknande kalkylblad, och kan användas för att länka identifierande information i databasen.

  1. Organisera datafiler, så de har väl genomtänkt unika namn. God praxis med filnamn konventioner och mapp-undermapp strukturer, när det görs väl, tillåter bred databas skalbarhet utan att kompromissa med läsbarheten för att komma åt filer manuellt. Lägg till datumfiler i ett konsekvent format, till exempel "20XX-YY-ZZ", och namnge undermappar enligt metadata är ett sådant exempel.
  2. När data basstrukturen är utformad ritar du relationer mellan fälten i olika tabeller. Sålunda, multidimensionalitet hanteras genom att relaterade olika områden (dvs kolumner i tabellerna) i enskilda tabeller till varandra.
  3. Skapa README-dokumentation som beskriver databasen och relationerna som skapades i steg 2,2. När en post mellan olika tabeller är länkad, är all associerad information relaterad till posten och kan användas för att anropa komplexa frågor för att filtrera ned till önskad information.
    Obs: README-dokument är en gemensam lösning för att tillhandahålla ytterligare information och databas strukturell information om ett projekt utan att lägga till icke-enhetliga data till strukturen.
  4. Efter steg 2.1 − 2.3, gör slutresultatet som liknar det här exemplet där individernas olika egenskaper (figur 2A) är relaterade till tillhörande experimentella data för dessa individer (figur 2B). Detsamma gjordes genom att relaterade kolumner av mönster typer (figur 2C) och datatyper (figur 2D) till matchande poster i huvuddata värden tabellen för att förklara olika stenografi beteckningar (figur 2B).
  5. Bestäm alla viktiga och bara användbara datapunkter som måste registreras för långväga datainsamling.
    Obs: en viktig fördel med att använda databaser över kalkylprogram, som tidigare nämnts, är skalbarhet: ytterligare datapunkter kan läggas trivialt när som helst och beräkningar, till exempel medelvärden, uppdateras omedelbart för att återspegla nyligen tillagda datapunkter.
    1. Identifiera nödvändig information för att skapa distinkta datapunkter innan du börjar. Lämna rådata orörda, i stället för att ändra eller Spara över den, så att omanalys är möjlig och tillgänglig.
      Anmärkning: för det givna exemplet (figur 2) var "Designator" motsvarande en individ, "mönster typ", "täckslip #", och "variabel typ" alla viktiga områden för särskiljbarhet av det tillhörande värdet.
    2. Om du vill kan du lägga till annan användbar, icke-viktig information som "totalt antal COVERSLIPS" för att ange antalet repetitioner som genomförts och hjälpa till att avgöra om datapunkter saknas i det här exemplet.

3. Ställ in och organisera pipelinen

  1. Identifiera alla olika experiment och dataanalysmetoder som kan leda till datainsamling tillsammans med normal datalagrings praxis för varje datatyp. Arbeta med programvara med öppen källkod-versionskontroll som GitHub för att säkerställa nödvändig konsekvens och versionskontroll samtidigt som användarens börda minimeras.
  2. Skapa om möjligt procedur för konsekvent namngivning och lagring av data för att möjliggöra en automatiserad pipeline.
    ANMÄRKNINGAR: i exemplet var utdata alla konsekvent namngivna, vilket skapar en data-pipeline som letade efter specifika attribut var enkelt när filerna valdes. Om det inte är möjligt att konsekvent namnge, måste tabellerna i databasen fyllas i manuellt, vilket inte rekommenderas.
  3. Använd valfritt praktiskt programmeringsspråk för att generera nya dataposter för databasen.
    1. Skapa små "Helper"-tabeller (filer #8 − #10 i tabell 1) i separata filer som kan vägleda automatiserad val av data. Dessa filer fungerar som en mall av möjligheter för pipelinen att verka under och är lätta att redigera.
    2. Om du vill generera nya dataposter för data-pipelinen (bild 3D) programmerar du koden (locationpointer. m, fil #1 i tabell 1) för att använda hjälp tabellerna som indata som ska väljas av användaren (filer #8 − #10 i tabell 1).
    3. Här monterar du ett nytt kalkylblad med filplatser genom att kombinera de nya posterna med föregående poster (figur 3E). Skapa en kod för att automatisera det här steget som visas i LocationPointerCompile. m (fil #2 i tabell 1).
    4. Efteråt, kontrollera detta sammanslagna kalkylblad för dubbletter, som bör tas bort automatiskt. Skapa en kod för att automatisera det här steget som visas i LocationPointer_Remove_Duplicates. m (fil #3 i tabell 1).
    5. Dessutom kontrollera kalkylbladet för fel och meddela användaren om deras orsak och plats (figur 3F). Skapa en kod för att automatisera det här steget som visas i BadPointerCheck. m (fil #4 i tabell 1). Alternativt kan du skriva en kod som ska kontrollera den kompilerade databasen och identifiera dubbletter i ett steg som visas i LocationPointer_Check. m (fil #5 i tabell 1).
    6. Skapa en kod för att låta användaren manuellt ta bort felaktiga punkter utan att förlora integriteten i databasen som visas i Manual_Pointer_Removal. m (fil #6 i tabell 1).
    7. Använd sedan filplatserna för att generera ett data värdes kalkylblad (bild 3G, fil #12 i tabell 1) samt för att skapa en mest uppdaterad lista över poster som kan nås för att identifiera filplatser eller slås samman med framtida poster (figur 3H). Skapa en kod för att automatisera det här steget som visas i Database_Generate. m (fil #7 i tabell 1).
  4. Dubbelkolla att pipelinen lägger till den experimentella stringens genom att söka efter införande av strikta namngivningskonventioner, automatiserade fil monterings koder och automatiserade felkontroller som tidigare beskrivits.

4. skapa databasen och frågor

Obs: om tabellerna lagrar information i databaser, sedan frågor är förfrågningar till databasen för information som ges specifika kriterier. Det finns två metoder för att skapa databasen: med början från ett tomt dokument eller från de befintliga filerna. Figur 4 visar en exempel fråga med SQL-syntax som är utformad för att köras med hjälp av databas relationerna som visas i figur 2.

  1. Metod 1: börja om från början när du skapar databasen och frågor
    1. Skapa ett tomt databasdokument.
    2. Läs in hjälp tabellerna (filer #8 − #10 i tabell 1) genom att välja externa data | Text fils import | Välj fil (filer #8 − #10) | Avgränsad | Första raden innehåller rubriker, komma | lämna standard | Välj min egen primärnyckel (Designator för cellinjer fil #8, variabelnamn för data typer fil #9, Pat namn för mönster typ fil #10) | lämna standard | Finish.
    3. Läs in data värdes tabellen (filen #12 i tabell 1) genom att välja externa data | Text fils import | Välj fil (fil #12) | Avgränsad | Första raden innehåller rubriker, komma | lämna standard | Låt Access lägga till primärnyckel | Importera till tabell: DataValues | Finish.
    4. Skapa relationer genom att välja Databasverktyg | Relationer | Dra alla tabeller till brädet | Redigera relationer | Skapa ny | Matcha DataValue fält med Helper tabeller designators | Gemensam typ 3.
    5. Välj skapa | Frågedesign.
    6. Markera eller dra alla relevanta tabeller till det översta fönstret. I det här exemplet "cellinjer", "datavärden", "datatyper" och "mönster typ". Relationerna bör automatiskt ställas in baserat på den tidigare Relations designen.
    7. Fyll i frågekolumnerna för önskat resultat, till exempel:
      1. Klicka på Visa | Summor.
      2. Fyll i den första kolumnen (tabell: DataValues, Field: DataVar, totalt: GroupBy, Criteria: "Act_OOP"), den andra kolumnen (tabell: DataValues, Field: PatVar, totalt: GroupBy, kriterier: "rader") och den tredje kolumnen (tabell: Cell_Lines, fält: Designator, totalt: GroupBy, sort: stigande).
      3. Fyll i den fjärde kolumnen (tabell: DataValues, Field: parameter, total: Ave), den femte kolumnen (tabell: DataValues, Field: parameter, total: STDAV) och den sjätte kolumnen (tabell: DataValues, Field: parameter, totalt: Count).
    8. Kör frågan.
  2. Du kan också använda den tillhandahållna exempeldatabasen som grund för exempel. Öppna databasfilen Database_Queries. accdb (filen #13 i tabell 1) som hämtades tidigare. Använd den som mall genom att ersätta befintliga tabeller med data av intresse.

5. flytta utdatatabellerna till en statistisk programvara för signifikansanalys

  1. Använd den enkelriktade analys av varians (ANOVA) med Tukey test för medelvärden jämförelser mellan olika villkor för detta exempel experimentella data.
    Anm.: värdena på p < 0,05 ansågs vara statistiskt signifikanta.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Flerdimensionalitet av data
I samband med exempeldata-set som presenteras här, ämnena, som beskrivs i avsnittet metoder, delades in i grupper av individer från de tre familjerna med den hjärtsjukdomsalstrande lmna -mutationen ("patienter"), relaterade icke-mutationsnegativa kontroller ("kontroller"), orelaterade icke-mutationskontroller ("givare") och en individ med Hutchinson-Gilford progeri syndrome (HGPS) som positiv kontroll20. Resultat från kontroller och givare kan ytterligare grupperas tillsammans som en övergripande negativ kontroll (NC) grupp, med tanke på deras kollektiva brist på lmna mutationer. Varje ämnes cellinjer hade en "Mutations status" associerad med den, baserat på deras villkorsgrupp (figur 1 – mörkblå axel). För varje experiment, fibroblast celler från försökspersonerna var odlade på arrangemang av antingen oorganiserade (isotrop) eller mikromönstrade (linjer) fibronectin, skapa villkoret "mönster typ" (figur 1 – orange axel). Efter att cellerna fixats, immunostained, och avbildas, var "täckglas #" transkriberas, eftersom flera experiment (dvs. tekniska replikat) skulle inträffa med hjälp av samma individs celler (figur 1 – ljusgrön axel). Anpassade MATLAB-koder20,21 användes sedan för att kvantifiera olika aspekter av cellkärnor eller vävnads organisation variabler som "variabel typ" (figur 1 -Teal grön axel). De tre faktorerna var förknippade med cellernas mänskliga källa och därmed kopplade till "familjen" (figur 1 – mörkrosa axel) och "ålder vid tidpunkten för biopsi" (figur 1 – mörkgrön axel) förutom "mutation status." Andra dimensioner som inte ingår i figur 1 var "presentations ålder", "Symptom", "beteckning" och "kön" för individen i fråga. Exemplet som anges här resulterar i minst tio möjliga dimensioner för Dataaggregering. Således är detta exempeldata en främsta kandidat för organisation vid Relations-databaser.

Figure 1
Bild 1: en visualisering av flerdimensionella data från lmna -mutationsdatauppsättningen. En enda kub definieras av de tre dimensionerna "variabel typ", "mönster typ" och "Täckslip #". Ytterligare dimensioner visas som axlarna av "mutation status", "Age of biopsi" (yrs), och "familj." Färgade etiketter motsvarar de olika axlarna som visas, såsom Age of biopsi (gröna nummer) för varje individs kub. Här används sex av de tio möjliga dimensionerna för att illustrera flerdimensionalitet av experimentella datapunkter. Vänligen klicka här för att se en större version av denna siffra.

Organisera pipelinen
Upp till uppskattningsvis 95% av alla digitala data är ostrukturerade4, men strukturerade format krävs för databaser. Fortfarande, skapa en bra automatiserad metod för data-pipeline är mycket kontextberoende.

Figure 2
Bild 2: tabell-och designvyrelationer inom lmna -mutationsdatauppsättningen. Relationsdatabaser har fördelen av att länka fält i en tabell med information i en annan tabell, vilket möjliggör omedelbar utbytbarhet av aggregering. Exemplet här visar visuellt hur olika information kan länkas. Vänligen klicka här för att se en större version av denna siffra.

I det här exemplet har de avbildningar som samlats in från varje experiment lagrats i mappar som namnges efter datum och initial för den ansvariga labb medlemmen, med undermappar som listar ämne och täckslip-nummer. Pipeline-filer finns i de kompletterande kodningsfiler, samt sammanfattas i ett flöde diagram illustration (figur 3). Olika mätvärden från olika Försöksförhållanden över en mängd olika ämnen kvantifierades från dessa fluorescerande bilder (figur 3a) med hjälp av anpassade koder (figur 3B)20,21. Till exempel, aktin vägledare gällande order parameter21 extraherades från vävnader färgade med phalloidin (figur 3A) och används för att jämföra organisationen av fibroblaster från olika individer. Kod utgångarna sparades i samma mapp som källbilderna (figur 3C).

Figure 3
Bild 3: ett exempel på vanliga data-pipeline-behov i en generaliserad kontext. Nya poster har skapats med hjälp av indata från användare och automatiserade koder, formatera viktig information i ett kalkylbladsformat. Dessa poster kombinerades med den senaste uppsättningen fil plats poster, kontrollerades för fel och lagrades sedan som både ett kalkylblad med filplatser och ett kalkylblad med datavärden. Scale bar = 20 μm. vänligen klicka här för att se en större version av denna siffra.

Identifiera en ny relation i Lmna mutation datauppsättning
När det ges många möjliga konformationer kan det vara svårt att identifiera var nya relationer finns med manuella data agg regeringsmetoder. I detta specifika sammanhang var vi intresserade av att jämföra organisationen av subcellulära aktin glödtrådar över flera villkor, mätt med OOP27.

Figure 4
Bild 4: en exempel fråga med SQL-syntax. SELECT och FROM-satser är krav för att generera en fråga, men ytterligare kommandon och kriterier ingår ofta. GROUP BY ger förtydligande om hur aggregera data, med eller där satser begränsa utdata till data som uppfyller specifika villkor och ORDER BY anger den ordning som utdata ska ordnas efter. Vänligen klicka här för att se en större version av denna siffra.

OOP är en matematisk konstruktion kvantifiera graden av ordning i Anisotrop miljöer, normaliserade till noll motsvarar helt isotropisk vävnad och en som motsvarar helt inriktad vävnad. Datauppsättningen delades först upp efter mönster typ som linjer (figur 5A) och isotropiskt (figur 5B) villkor, som förväntades ha väldigt olika oops eftersom Fibronektin micropatterning kraftigt påverkar vävnad organisation. Det fanns inga signifikanta skillnader mellan förhållandena vid jämförelsen av isotropiskt vävnader (figur 5B). Omvänt var de mönstrade vävnaderna statistiskt mindre organiserade i den positiva kontrollen cellinjer (HGPS) (figur 5A), och detta förhållande hålls även när uppgifterna aggregerades i olika grupper (figur 5C). Actin OOP var dessutom plottas mot individers ålder vid tidpunkten för biopsi (figur 5D), separerade med mutation status och familj, för att illustrera aggregering mot en klinisk variabel. Till skillnad från nukleära defekter20, det finns inget samband mellan aktin organisation och en individs ålder (figur 5D). I slutändan illustrerar de tomter som visas i figur 5 hur samma data kan analyseras i olika kombinationer och hur lätt den normalt svåra uppgiften att aggrefiera data som faller under flera klasser kan åstadkommas med hjälp av databaser.

För denna artikel, data från patient inköpta fibroblaster jämfördes mellan villkor för att bestämma Mutations konsekvenser. Även om både HGPS och de tre familjerna i denna studie har lmna-länkade sjukdomar som potentiellt stör det nukleära kuvertet uppvisar patienterna symtom främst förknippade med hjärtdysfunktion medan HGPS-individer har flera organsystem som påverkas22,23,24. Faktum är att trots den mikromönstrade miljö celler som härstammar från en HGPS-patient hade en statistiskt lägre aktin OOP värde än någon av de andra cellinjer övervägas (figur 5a,C). Detta passar ihop med HGPS-patienter som är de enda i studien med eventuella hud avvikelser orsakade av mutationen. Att visa samma data i olika konformationer är också till hjälp för att ge ytterligare insikt och möjligheter till vetenskaplig undersökning i en varierad datauppsättning (figur 5).

Figure 5
Figur 5: jämförelser mellan villkor för variabeln aktin OOP. (A,B) grupperingar motsvarar de fyra primära villkoren: icke-relaterade negativa kontroll givare, relaterade negativa kontroll kontroller, Lmna -mutationspatienter från tre familjer och positiv kontroll av HGPS. (C) alla negativa kontroller (NC) kombinerades och patienterna var separerade med familj (PA, PB, PC) i stället. (D) en potentiell Graf över isotrop aktin OOP mot ålder vid tidpunkten för biopsi som samlats in för denna studie, åtskilda av tillstånd och familj. Panelerna A, C och D ritas för vävnaderna som är mikromönstrade med ett linjemönster, medan panel B ritas för isotropiskt vävnader. Statistisk signifikans för p < 0,05 (*) hittades i panelerna A, C och D. Ingen betydelse mellan några par hittades i panel B. Alla felstaplar representerar standardavvikelser som beräknats i databasen. Vänligen klicka här för att se en större version av denna siffra.

Kompletterande Kodningsfiler. Vänligen klicka här för att se denna fil (Högerklicka för att ladda ner).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Teknisk diskussion om protokollet
Det första steget när man överväger att använda databaser är att utvärdera om data skulle gynnas av en sådan organisation.

Nästa viktiga steg är att skapa en automatiserad kod som kommer att fråga minsta indata från användaren och generera tabelldata struktur. I exemplet angav användaren kategorin data typ (cellkärnor eller strukturella mätningar), cellinjer ämnes beteckning och antal filer som valdes. De relevanta filerna valdes sedan av användaren (tabell 2, kolumn 1), där radposterna automatiskt skapades och fylls i med alla variabler som finns i filen (tabell 2, kolumn 2). Dessutom är det viktigt koden är flexibel så att om en annan experimentell post måste läggas till, kan användaren välja att fortsätta slingan; om inte, sparas filerna och slingan avslutas. De grundläggande funktionerna för att lägga till nya poster, söka efter fel och montera kalkylbladet från filplatser som beskrivs i det här steget är alla kritiska för en effektiv installation av data pipeline.

Det är viktigt att notera att använda filplatser när du skapar data-pipeline ökar experimentell noggrannhet. Om du har ett motsvarande kalkylblad med alla filplatser för datavärdena kan en användare bakåtspåra alla data pekar tillbaka till den labb anteckningsboken för forskaren som samlat in rådata. När det handlar om hundratals till tiotusentals datapunkter är större transparens och tillgänglighet ovärderligt under ett projekts livstid. Det rekommenderas starkt att användare kan spara filplatser först och senare sammanställa värden för data i stället för att bara lagra datavärdena.

När databasen har skapats är det enklaste sättet att komma igång genom att programmera frågorna via designvyn. Användaren kommer att finna det lämpligt att ladda ner den medföljande mallen (fil #13 i tabell 1) som utgångspunkt. Alternativt kan dessa vara programmerat direkt via SQL-språket (figur 4).

Vetenskaplig diskussion
Syftet med denna artikel var att sprida metoder som inbegriper en data-pipeline och databas som belyser datamängd skalbarhet och transparens. Dessa metoder används inte i stor utsträckning utanför informatik och näringslivet, men har en enorm potential för dem som arbetar i biologiska sammanhang. Eftersom vetenskapen fortsätter att förlita sig på datorer hårdare, ökar vikten av effektiva ledningssystem också6,29. Databaser används ofta för hög volym och/eller hög hastighet applikationer och är väl citerade i litteraturen, särskilt när det gäller deras användning för kliniska patientpopulationer8,30,31. Flera av dem har redan byggts för specifika områden såsom databasen för råtta-genomdatabasering eller Redcap för klinisk och translationell forskning32,33. Således har användningen av databaser antagits i det kliniska området8 eller stora genomiska databaser32, men har inte blivit vanligt i andra vetenskapliga discipliner som vävnadsteknik.

Frågorna om hantering av alltmer komplexa data med hjälp av kalkylprogram har länge erkänts inom det vetenskapliga samfundet34. En studie rapporterade att omkring 20% av genomiska journalpapper med kompletterande filer hade gennamn som felaktigt konverterades till datum35. Dessa misstag ökade med i genomsnitt 15% per år från 2010 till 2015, långt snabbare än den årliga ökningen av genomik papper på 4% per år. Det är ofta nästan omöjligt att identifiera enskilda fel i en stor mängd data, som av naturen kalkylprogram är olämpliga för enkel validering av resultat eller formelberäkningar. Publicerade artiklar finns även för att utbilda forskare på bättre kalkylblad praxis i ett försök att minska frekvensen av fel7. En av de starkaste fördelarna med databaser är att minska fel genom automatiserade metoder och förmåga att validera potentiellt tvivelaktiga data (figur 3).

Ett betydande resultat av denna metod är den ökade stringens av dataanalys. Vikten av att öka reproducerbarheten av data har lyfts fram av NIH samt av andra vetenskapsmän och institutioner36,37. Genom att ha ett kalkylblad med filplatser som motsvarar varje databas, är det lätt att spåra en datapunkt tillbaka till den labb anteckningsboken för experimentet i fråga (figur 3). Enskilda datapunkter kan också snabbt identifieras och hittas elektroniskt med motsvarande filplatser, vilket är ovärderligt ibland, även när den kombineras med automatisk felkontroll under processen data-pipeline. Även när datauppsättningen ändras med tiden, innebär bästa praxis att hålla alla tidigare filer om problem uppstår eller äldre versioner måste kontrolleras. Arbeta icke-destruktivt och behålla gamla versioner inom data-pipeline skapar säkerhet genom redundans och möjliggör bättre felsökning.

Det finns otaliga relationsdatabas hanteringssystem i kombination av kodningsspråk som kan användas för samma data-pipeline behov. De lämpligaste alternativen är i hög grad beroende av vilka data och vilken kontext som används. vissa program Excel bäst på skalbarhet, flexibilitet, tillförlitlighet och andra prioriteringar9. Även om databaserna fortfarande är tekniskt ändliga i stor skala är det fortfarande inte långt till de flesta vetenskapliga laboratorierna som når minnesgränserna. Till exempel har en MS Access-databas en minnes storleksgräns på 2 GB, vilket skulle vara en datauppsättning i storleksordningen hundratusentals till miljontals poster beroende på data och antal fält. De flesta Labs kommer aldrig att ha experimentella behov av denna storleksordning, men om de gjorde då kalkylprogram skulle vara långt bortom deras effektiva gränser ändå. I jämförelse kan relationsdatabas hanteringssystem på affärsnivå hantera datauppsättningar med större magnitud samtidigt som de bearbetar miljontals transaktioner samtidigt29. En del av orsaken databaser är inte vanligt förekommande i vetenskapliga laboratorier är att tidigare experiment sällan Crest behov av sådana data magnituder, så lätt att använda kalkylprogram blev utbredd i stället. En betydande investering som krävs för att göra dessa metoder fungerar, men är den tid som behövs för att planera data-pipeline och lär dig SQL för att använda databaser (figur 3 och figur 4). Även om kodning erfarenhet kraftigt påskyndar processen, de flesta kommer att behöva lära sig SQL från grunden. En uppsjö av dokumentation finns tillgänglig online genom omfattande dokumentation av utvecklare, samt gratis SQL-självstudier som på Codecademy, W3Schools och SQLBolt10,11,12. Vissa alternativ som kräver prenumerationer finns dock, såsom programmet undervisning hemsida Lynda38; Ytterligare läsning om grunderna i databasen kan hittas på nätet. I en akademisk miljö kan bra Lab Buy-in och robusta system överträffa sina skapare och bidra till att underlätta många års projekt över flera studenter. Detta kan åstadkommas genom att skapa riktlinjer och implementeringssteg under installationen. Det finns faktiskt ett högt värde för alla forskare i att ha en välfungerande gemensam data-pipeline och databassystem.

Andra fördelar med den här metoden är möjligheten att använda automatiserade metoder för att omvandla rådata till strukturerade format, användarvänlighet när de lagras i databasen och ständig uppdatering och omagg regering av datauppsättningar (figur 3). Det är också möjligt att dra flera variabler värde av information från en enda datafil och automatisera data-pipeline att göra det när du uppmanas. I det sammanhang som visas, allmänt tillgänglig och ekonomisk programvara användes för att uppnå resultat som visar att dyra och nisch mjukvarupaket är inte obligatoriskt att uppnå en funktionell databas. Med tanke på den begränsade räckvidden för de flesta laboratoriers forskningsfonder, är förmågan att öka effektiviteten i databashantering en ovärderlig handelsvara.

Sammanfattningsvis, eftersom vetenskapliga datauppsättningar blir mer komplexa, databaser blir allt viktigare för vetenskapssamhället och har stor potential att vara så vanliga som och ännu effektivare än nuvarande utbredd kalkylblad användning för data Lagring. Problem med data transparens och reproducerbarhet inom vetenskapen kommer bara att fortsätta att expandera i framtiden, eftersom datamängder fortsätter att öka i storlek och komplexitet, vilket belyser vikten av ett mer omfattande antagande av databaser och automatiserade data-pipeline-metoder för allmänna vetenskapliga behov nu och in i framtiden.

Referensnummer Filnamn Typ
1 LocationPointer. m Pipe-line-kod
2 LocationPointerCompile. m Pipe-line-kod
3 LocationPointer_Remove_Duplicates. m Pipe-line-kod
4 BadPointerCheck. m Pipe-line-kod
5 LocationPointer_Check. m Pipe-line-kod
6 Manual_Pointer_Removal. m Pipe-line-kod
7 Database_Generate. m Pipe-line-kod
8 Cell_Lines. csv Helper-tabell
9 Data_Types. csv Helper-tabell
10 Pattern_Types. csv Helper-tabell
11 DataLocation_Comp_2018_6_26_10_01. csv Exempel på data plats fil
12 DataValues_2018_6_26_10_02. csv Exempel på data värdes fil
13 Database_Queries. accdb Exempeldatabas

Tabell 1: lista över alla exempel filer som kan överföras för att köra protokollet.

Fil som valts Variabel
Sammanfattning. mat Andel defekta kärnor
Alla kärnor Area genomsnitt (μm2)
Defekt kärna i området genomsnitt (μm2)
Normal Nuklei Area medelvärde (μm2)
Alla Nuklei excentricitet genomsnitt
Defekt Nuklei excentricitet genomsnitt
Normal Nuklei excentricitet genomsnitt
Alla kärnor MNC genomsnitt
Defekta kärnor MNC genomsnitt
Normal Nuklei MNC genomsnitt
Act_OOP. mat Actin OOP
Actin OOP regissör vinkel
Fibro_OOP. mat Fibronectin OOP
Fibronectin OOP direktör vinkel
Nuc_OOP. mat Nuclei OOP
Kärnor OOP regissör vinkel

Tabell 2: listade Välj filer som motsvarar olika variabler av antingen cellkärnor mätningar eller fibroblast strukturella (OOP) data.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Författarna har inget att avslöja.

Acknowledgments

Detta arbete stöds av nationella hjärt-, lung-och blod institutet vid National Institutes of Health, Grant nummer R01 HL129008. Författarna tackar särskilt Lmna genmutation familjemedlemmar för deras deltagande i studien. Vi vill också tacka Linda McCarthy för hennes hjälp med cellkultur och underhålla Lab Spaces, Nasam Chokr för hennes deltagande i cell Imaging och kärnor dataanalys, och Michael A. GROSBERG för hans relevanta råd med att inrätta vår första Microsoft Access-databas samt svara på andra tekniska frågor.

Materials

Name Company Catalog Number Comments
4',6'-diaminodino-2-phenylinodole (DAPI) Life Technologies, Carlsbad, CA
Alexa Fluor 488 Phalloidin Life Technologies, Carlsbad, CA
Alexa Fluor 750 goat anti-rabbit Life Technologies, Carlsbad, CA
digital CCD camera ORCAR2 C10600-10B Hamamatsu Photonics, Shizuoka Prefecture, Japan
fibronectin Corning, Corning, NY
IX-83 inverted motorized microscope Olympus America, Center Valley, PA
Matlab R2018b Mathworks, Natick, MA
MS Access Microsoft, Redmond, WA
paraformaldehyde (PFA) Fisher Scientific Company, Hanover Park, IL
polycloncal rabbit anti-human fibronectin Sigma Aldrich Inc., Saint Louis, MO
polydimethylsiloxane (PDMS) Ellsworth Adhesives, Germantown, WI
Prolong Gold Antifade Life Technologies, Carlsbad, CA
rectangular glass coverslips Fisher Scientific Company, Hanover Park, IL
Triton-X Sigma Aldrich Inc., Saint Louis, MO

DOWNLOAD MATERIALS LIST

References

  1. Cavin, R. K., Lugli, P., Zhirnov, V. V. Science and engineering beyond Moore's law. Proceedings of the IEEE. 100, Special Centennial Issue 1720-1749 (2012).
  2. Mast, F. D., Ratushny, A. V., Aitchison, J. D. Systems cell biology. The Journal of Cell Biology. 206 (6), 695-706 (2014).
  3. Barone, L., Williams, J., Micklos, D. Unmet needs for analyzing biological big data: A survey of 704 NSF principal investigators. PLoS Computational Biology. 13 (10), 1005755 (2017).
  4. Gandomi, A., Haider, M. Beyond the hype: Big data concepts, methods, and analytics. International Journal of Information Management. 35 (2), 137-144 (2015).
  5. Siddiqa, A., et al. A survey of big data management: Taxonomy and state-of-the-art. Journal of Network and Computer Applications. 71, 151-166 (2016).
  6. Anderson, C. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired Magazine. , (2008).
  7. Broman, K. W., Woo, K. H. Data Organization in Spreadsheets. The American Statistician. 72 (1), 2-10 (2018).
  8. Lee, H., et al. How I do it: a practical database management system to assist clinical research teams with data collection, organization, and reporting. Academic Radiology. 22 (4), 527-533 (2015).
  9. Bassil, Y. A comparative study on the performance of the Top DBMS systems. Journal of Computer Science & Research. 1 (1), 20-31 (2012).
  10. Learn SQL - Codeacademy. , Available from: https://www.codecademy.com/learn/learn-sql (2018).
  11. SQL Tutorial - w3schools.com. , Available from: https://www.w3schools.com/sql (2018).
  12. Introduction to SQL - SQLBolt. , Available from: https://sqlbolt.com (2018).
  13. Pedersen, T. B., Jensen, C. S. Multidimensional database technology. Computer. 34 (12), 40-46 (2001).
  14. Győrödi, C., Gyorodi, R., Sotoc, R. A Comparative Study of Relational and Non-Relational Database Models in a Web- Based Application. International Journal of Advanced Computer Science and Applications. 6 (11), 78-83 (2015).
  15. Nayak, A., Poriya, A., Poojary, D. Type of NOSQL databases and its comparison with relational databases. International Journal of Applied Information Systems. 5 (4), 16-19 (2013).
  16. Lei, C., Feng, D., Wei, C., Ai-xin, Z., Zhen-hu, C. The application of multidimensional data analysis in the EIA database of electric industry. Procedia Environmental Sciences. 10, 1210-1215 (2011).
  17. Soranno, P. A., et al. Building a multi-scaled geospatial temporal ecology database from disparate data sources: fostering open science and data reuse. GigaScience. 4, 28 (2015).
  18. Edwards, P. Questionnaires in clinical trials: guidelines for optimal design and administration. Trials. 11, 2 (2010).
  19. Richards, M. A., et al. MediaDB: A Database of Microbial Growth Conditions in Defined Media. PLoS ONE. 9 (8), 103548 (2014).
  20. Core, J. Q., et al. Age of heart disease presentation and dysmorphic nuclei in patients with LMNA mutations. PLoS ONE. 12 (11), 0188256 (2017).
  21. Drew, N. K., Johnsen, N. E., Core, J. Q., Grosberg, A. Multiscale Characterization of Engineered Cardiac Tissue Architecture. Journal of Biomechanical Engineering. 138 (11), 111003 (2016).
  22. Zaragoza, M. V., et al. Exome Sequencing Identifies a Novel LMNA Splice-Site Mutation and Multigenic Heterozygosity of Potential Modifiers in a Family with Sick Sinus Syndrome, Dilated Cardiomyopathy, and Sudden Cardiac Death. PLoS ONE. 11 (5), 0155421 (2016).
  23. Zaragoza, M., Nguyen, C., Widyastuti, H., McCarthy, L., Grosberg, A. Dupuytren's and Ledderhose Diseases in a Family with LMNA-Related Cardiomyopathy and a Novel Variant in the ASTE1 Gene. Cells. 6 (4), 40 (2017).
  24. Zaragoza, M. V., Hakim, S. A., Hoang, V., Elliott, A. M. Heart-hand syndrome IV: a second family with LMNA-related cardiomyopathy and brachydactyly. Clinical Genetics. 91 (3), 499-500 (2017).
  25. Eriksson, M., et al. Recurrent de novo point mutations in lamin A cause Hutchinson-Gilford progeria syndrome. Nature. 423 (6937), 293-298 (2003).
  26. Drew, N. K., Eagleson, M. A., Baldo, D. B., Parker, K. K., Grosberg, A. Metrics for Assessing Cytoskeletal Orientational Correlations and Consistency. PLoS Computational Biology. 11 (4), 1004190 (2015).
  27. Hamley, I. W. Introduction to Soft Matter: Synthetic and Biological Self-Assembling Materials. , John Wiley & Sons. Hoboken, NJ. (2013).
  28. Grosberg, A., Alford, P. W., McCain, M. L., Parker, K. K. Ensembles of engineered cardiac tissues for physiological and pharmacological study: Heart on a chip. Lab Chip. 11 (24), 4165-4173 (2011).
  29. Hey, T., Trefethen, A. The Data Deluge: An e-Science Perspective. Grid Computing: Making the Global Infrastructure a Reality. Berman, F., Fox, G., Hey, A. J. G. , John Wiley & Sons. Hoboken, NJ. Ch. 36 (2003).
  30. Wardle, M., Sadler, M. How to set up a clinical database. Practical Neurology. 16 (1), 70-74 (2016).
  31. Kerr, W. T., Lau, E. P., Owens, G. E., Trefler, A. The future of medical diagnostics: large digitized databases. The Yale Journal of Biology and Medicine. 85 (3), 363 (2012).
  32. Laulederkind, S. J., et al. The Rat Genome Database curation tool suite: a set of optimized software tools enabling efficient acquisition, organization, and presentation of biological data. Database. 2011, (2011).
  33. Harris, P. A., et al. Research electronic data capture (REDCap)--a metadata-driven methodology and workflow process for providing translational research informatics support. Journal of Biomedical Informatics. 42 (2), 377-381 (2009).
  34. Panko, R. R. What we know about spreadsheet errors. Journal of Organizational and End User Computing (JOEUC). 10 (2), 15-21 (1998).
  35. Ziemann, M., Eren, Y., El-Osta, A. Gene name errors are widespread in the scientific literature. Genome Biology. 17 (1), 177 (2016).
  36. Enhancing Reproducibility through Rigor and Transparency. NIH. , Available from: https://grants.nih.gov/reproducibility/index.htm (2018).
  37. Hofseth, L. J. Getting rigorous with scientific rigor. Carcinogenesis. 39 (1), 21-25 (2017).
  38. SQL Training and Tutorials - Lynda.com. , Available from: https://www.lynda.com/SQL-training-tutorials/446-0.html (2018).

Tags

Bioteknik utgåva 153 medelstora data databaser LMNA data organisation flerdimensionella data vävnadsteknik
Databaser för att effektivt hantera medelstora, låg hastighet, flerdimensionella data i vävnadsteknik
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ochs, A. R., Mehrabi, M., Becker,More

Ochs, A. R., Mehrabi, M., Becker, D., Asad, M. N., Zhao, J., Zaragoza, M. V., Grosberg, A. Databases to Efficiently Manage Medium Sized, Low Velocity, Multidimensional Data in Tissue Engineering. J. Vis. Exp. (153), e60038, doi:10.3791/60038 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter