Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

Engineering

Determinazione campi di flusso 3D tramite multi-camera campo di luce Imaging

doi: 10.3791/4325 Published: March 6, 2013

Summary

Una tecnica per eseguire quantitativa tridimensionale (3D) per una serie di flussi di fluidi viene presentato. Utilizzando i concetti della zona di Imaging campo di luce, abbiamo ricostruire volumi 3D da array di immagini. I nostri risultati 3D abbracciano una vasta gamma tra cui campi di velocità e multi-fase distribuzione delle dimensioni bolla.

Abstract

Nel campo della meccanica dei fluidi, la risoluzione di sistemi computazionali ha superato metodi sperimentali e ampliato il divario tra i fenomeni osservati e previsti nel fluido. Pertanto, esiste la necessità di un metodo accessibile in grado di risolvere tridimensionali (3D) insiemi di dati per una serie di problemi. Presentiamo una nuova tecnica per eseguire quantitativa imaging 3D di molti tipi di campi di flusso. La tecnica 3D permette lo studio di campi di velocità complicati e flussi frizzante. Misure di questi tipi presentano una varietà di sfide allo strumento. Per esempio, otticamente dense flussi multifase frizzanti non può essere facilmente immaginata dal tradizionali tecniche di flusso non invasive di misura dovuti alle bolle occlusione accesso ottico alle regioni interne del volume di interesse. Utilizzando immagini poco campo siamo in grado di riparametrizzare immagini catturate da una serie di telecamere per ricostruire una mappa 3D volumetrica per ogni istanza di tempo, nonostanteocclusioni parziali nel volume. La tecnica fa uso di un algoritmo noto come apertura sintetica (SA) rifocalizzazione, quale una pila 3D focale viene generato combinando immagini provenienti da più telecamere post-cattura 1. Imaging campo luminoso permette la cattura di angolare nonché informazioni spaziali i raggi di luce, e dunque consente la ricostruzione 3D scena. Informazioni quantitative può quindi essere estratto dalle ricostruzioni 3D utilizzando una varietà di algoritmi di elaborazione. In particolare, abbiamo sviluppato metodi di misurazione basato su Imaging campo di luce per l'esecuzione di 3D velocimetry immagini di particelle (PIV), l'estrazione di bolle in un campo 3D e il monitoraggio il confine di una fiamma tremolante. Vi presentiamo i fondamenti della metodologia Luce Imaging campo nel contesto della nostra configurazione per l'esecuzione 3DPIV del flusso d'aria che passa sopra una serie di sintetiche corde vocali, e mostrare i risultati rappresentativi applicazione della tecnica ad una bolla-jet trascinatore precipitare.

Protocol

1. 3D Luce Impostazione sul campo Imaging

  1. Avviare determinando le dimensioni del volume di misura e la risoluzione temporale e spaziale richiesta per investigare l'esperimento di flusso di fluido in fase di studio.
  2. Stimare la densità ottica che sarà presente nel esperimento per determinare il numero di telecamere necessarie per generare immagini riorientate con rapporto segnale-rumore (SNR) 1, 2 (ad esempio per PIV uno dovrebbe calcolare particelle per pixel). Per l'esperimento 3D SAPIV con le pieghe di sintesi vocali qui presentati, usiamo 8 telecamere e si aspettano di ottenere una densità di semina di 0,05-0,1 particelle per pixel (ppp). Questo numero aumenta con il numero crescente di fotocamera con rendimenti decrescenti raggiunto circa 13 telecamere, il SNR diminuisce rapidamente al di sotto di 5 telecamere.
  3. Montare le telecamere in una configurazione di array su un telaio in modo tale che ogni telecamera può vedere il volume di misura da punti di vista diversi.
  4. Collegare le telecamere ad un computer centrale per l'acquisizione dei dati e la visualizzazione.
  5. Seleziona le tue lenti con lunghezze focali appropriati per l'ingrandimento desiderato e ottici distanze di lavoro. Tipicamente, lo stesso tipo di obiettivo a focale fissa è montata ad ogni telecamera per generare ingrandimento simile in ciascuna immagine.
  6. Collocare un oggetto visivo (come una griglia di calibrazione) al centro del volume di misura.
  7. Utilizzando l'immagine ripresa dalla telecamera centro della matrice come riferimento, spostare l'intero array frame fotocamera più vicino o più lontano dal volume di misura per ottenere l'ingrandimento desiderato.
  8. Successivamente, separare le telecamere rimanenti nella matrice. Spaziatura delle telecamere Allontanare tra loro migliora la risoluzione spaziale nella dimensione di profondità a costo di profondità totale risolvibile 1. Nota: usiamo profondità per fare riferimento alla Z-dimensione, il che è positivo verso le telecamere (vedi Figura 1). Il rapporto di profondità in-Plane risoluzione è data approssimativamente da Equazione 1 , Dove Z è la profondità del volume, o s è la distanza delle telecamere al fronte del volume, e D è il rapporto di spaziatura fotocamera s o.
  9. Angolo tutte queste telecamere che l'obiettivo visivo al centro del volume di misura è approssimativamente centrata in ciascuna telecamera.
  10. Con le aperture completamente aperte su ogni obiettivo della fotocamera, mettere a fuoco ogni telecamera sul bersaglio visivo.
  11. Collocare un oggetto di calibrazione sul retro del volume di misura. Assicurarsi che l'obiettivo è in vista di ogni telecamera, se non lo è, allora la distanza tra le telecamere e il volume di misura e / o spaziatura fotocamera esigenze di adeguamento (passi 1,7-1,8).
  12. Chiudere l'apertura di ogni telecamera fino a quando l'obiettivo è a fuoco in ogni camera.
  13. Ripetere i passaggi da 1,11-1,12 con l'obiettivo di tegli anteriore del volume di misura. Il target di calibrazione dovrebbe essere simile alla figura 2 dopo ogni telecamera viene regolata.

2. Volume Illuminazione Setup

  1. Determinare il metodo appropriato per illuminare il volume di misura basato sul metodo di misurazione specifico applicato al campo di flusso. Per Particle Image Velocimetry (PIV) un volume laser viene utilizzato.
  2. Selezionare un laser con una frequenza che può raggiungere la risoluzione desiderata temporale della misurazione. Il laser può essere singola pulsata per tempo risolto o doppia pulsata per il telaio-a cavallo 3.
  3. Utilizzare lenti ottiche per formare il fascio laser in un volume di luce che copre il volume di misura.
  4. Seed il volume con particelle traccianti adatti per le misure PIV 3. La concentrazione di particelle nel fluido dovrebbe essere abbastanza grande per ottenere la risoluzione spaziale desiderata, ma non così grande da ridurre il SNR inSA riorientato le immagini di sotto di un livello accettabile. Riferimento 1 contiene uno studio approfondito della densità di semina realizzabile, ma come regola generale una densità immagine di 0,05-0,15 particelle per pixel (ppp) è adatto alla maggior parte esperimenti con 8 o più telecamere. Per un numero fisso di telecamere, delle particelle per pixel riduce le dimensioni di volume maggiore profondità.

3. Array Camera di calibrazione

  1. Taratura richiede catturare una serie di immagini di ogni telecamera con un target di calibrazione (ad esempio una griglia a scacchiera, vedi figura 2) in più sedi in tutto il volume di misura. In primo luogo, scegliere tra due tipi di calibrazione: o un multi-camera di auto-calibrazione metodo o l'immagine di un bersaglio di calibrazione noto che è proprio mosso attraverso il campo di interesse.
  2. Definire un sistema di coordinate di riferimento nel volume di misura. Questo sistema di coordinate è spesso scelti in modo che f sia rilevanteo l'esperimento (es. allineato con l'asse di un cilindro, originario all'avanguardia di una piastra piana, etc). Qui abbiamo scelto di collocare le griglie nel piano XY allineato punti lungo l'asse Z (Figura 1).
  3. Se si utilizza un multi-camera autocalibrazione algoritmo 4, 5 le posizioni di calibrazione finali può essere casuale, ad eccezione di una posizione che si trova proprio nel sistema di coordinate di riferimento. La posizione dei punti di taratura su questo target precisamente posizionata deve essere nota con precisione. In ogni telecamera, catturare un'immagine del bersaglio in ogni posizione simile a Figura 2.
  4. Se non si utilizza un multi-camera autocalibrazione algoritmo, quindi il bersaglio di calibrazione deve essere posizionato con precisione in diverse posizioni nel volume di misura tale che l'orientamento del target nel sistema di coordinate di riferimento è nota con precisione. In ogni telecamera, catturare l'immagine del target in ogni luogo.
  5. Identificare punti sul bersaglio in ogni telecamera per ogni immagine. Per l'auto-calibrazione, corrispondenze immagine punto attraverso tutte le telecamere sono necessari 5, ma esplicito riferimento a immagini corrispondenze di punti sono necessari solo per i punti generati dalla destinazione precisa posizione. Per il metodo di calibrazione proprio percorso, esplicito riferimento a immagini corrispondenze di punti sono necessari per tutti i punti di tutte le telecamere.
  6. Applicare l'algoritmo di calibrazione scelto per calibrare tutte le telecamere. Qui abbiamo scelto di utilizzare un multi-camera autocalibrazione algoritmo 4, 5 (open source http://cmp.felk.cvut.cz/ ~ Svoboda / SelfCal / ) e le posizioni delle telecamere conseguenti relativi ai piani di interesse sono mostrato in Figura 3.

4. Timing, Triggering e raccolta dati

  1. Quantitativa, risolta in tempo di imaging campo luminoso richiede che tutte le cameras e fonti di illuminazione di essere accuratamente sincronizzati, spesso ad un evento rilevante sperimentale.
  2. Un generatore di impulsi esterno viene utilizzato per attivare le esposizioni della fotocamera e le sequenze di illuminazione. Programmare le opportune sequenze di impulsi di temporizzazione del generatore di impulsi. Per l'esperimento corde vocali, si usa una sequenza di frame-cavallo, per cui il laser è impulsata vicino alla fine di una telecamera e di esposizione vicino all'inizio del successivo 3.
  3. Se da un innesco evento sperimentale, in modo che un segnale appropriato viene generato e ingresso al generatore di impulsi.
  4. In caso di attivazione manuale, disposizioni per l'attivazione del generatore di impulsi.
  5. Iniziare l'acquisizione di dati sperimentali, avviando la cattura della fotocamera e la sequenza di illuminazione tramite il metodo scelto di attivazione.
  6. Anche se sembra banale, al momento di acquistare la grande quantità di dati associato a un multi-camera di luce campo dell'imaging esperimento di una buona convenzione di denominazione è cruciale. E 'utile considerare come i dati saranno utilizzati dalla cattura alla definitiva quando si sviluppa la convenzione di denominazione.

5. Aperture Rifocalizzazione Synthetic

  1. Abbiamo ora genererà una pila 3D focale di immagini per produrre un volume sinteticamente riorientato. Primo, definire la spaziatura tra i piani focali e profondità complessiva rifocalizzazione da utilizzare nel volume riorientato Equazione 1 1, 7. Tipicamente, la spaziatura piano focale è impostato a metà della risoluzione profondità e la profondità totale rifocalizzazione è governata dalla regione in cui tutti i campi di telecamere della sovrapposizione vista. I piani focali sarà perpendicolare all'asse Z del sistema di coordinate di riferimento.
  2. Definire la scala da applicare alle immagini su riproiezione nel volume di misura. La scala deve essere coerente con l'ingrandimento delle immagini prime per evitaresignificativa sovra-campionamento o sotto-campionamento delle immagini riproiettato.
  3. Stabilire trasformazioni tra ogni piano immagine della telecamera e ogni piano focale sintetico.
  4. Eseguire la pre-elaborazione dell'immagine per rimuovere il rumore di fondo e ospitare per differenze di intensità tra le immagini 1, 7.
  5. Immagini riproiettare sui piani focali sintetiche, applicare la scala e ri-campione le immagini. Una serie di funzioni built-in Matlab (Image Processing Toolbox a) in grado di gestire questi compiti assegnati i piano a piano trasformazioni.
  6. Su ogni piano focale sintetica, applicare la additivo o moltiplicativo algoritmo rifocalizzazione SA 1, 7. Per le applicazioni 3D SAPIV, abbiamo avuto un buon successo con additivo SA (applicato alle corde vocali qui). Per le immagini di bolle in controluce, il moltiplicativo SA ha dato risultati superiori. Come controllo applica il riorientamento di un piano delle immagini di calibrazione per vedere se la ricostruzione appare come previsto.

    6. Volume di post-elaborazione

    1. Per stimare gli oggetti originali nel volume che ha generato il campo di luce richiede una fase di elaborazione noto come ricostruzione. Esistono diversi algoritmi che vanno dalla semplice intensità di soglia da 1 a gradiente di metriche basate su fuoco da 7 a più complesse deconvoluzione 3D 8. Scegliere un algoritmo di ricostruzione appropriato per l'applicazione. Per PIV, abbiamo avuto successo sia con soglia intensità e deconvoluzione 3D. Usiamo intensità sogliatura qui per formare una pila focale. Due pile focali da tempo 1 (t 1) e il tempo 2 (t 2) sono cross-correlata per formare un campo vettoriale. Il 3D sul campo metodo Luce Imaging intrinsecamente risultati in oggetti che vengono allungate nella dimensione della profondità, che possono influenzare la precisione PIV, un algoritmo di buona ricostruzione tenta di mitigare questo allungamento.
    2. Dopo la fase di ricostruzione, caratteristiche del volume può essere necessario o exestratto in per consentire la misura della dimensione, forma, ecc Gli algoritmi utilizzati per l'estrazione di caratteristiche sono diverse e dipendono dall'applicazione 7. Per estrarre bolle, ad esempio, richiede un mezzo di localizzazione caratteristiche bolla e definire le loro dimensioni. Per le applicazioni PIV, non esplicitamente estrarre le particelle e questo passaggio può essere saltato.
    3. Per le applicazioni 3D SAPIV, analizzare il volume di ricostruzione in volumi più piccoli interrogatori e applicare un opportuno algoritmo di cross-correlazione basata su PIV di misurare il campo vettoriale 1, 3.

    un maketform: costruisce un piano di trasformazione aereo e imtransform: mappe e ricampiona l'immagine in base alle trasformazioni da maketform.

Representative Results

Immagini raw di alta qualità PIV contengono particelle uniformemente distribuite appaiono con alto contrasto sullo sfondo nero (figura 4a). Per compensare l'illuminazione non uniforme in tutta l'immagine, l'immagine di pre-elaborazione può essere eseguita per rimuovere le aree luminose, regolare il contrasto e normalizzare gli istogrammi di intensità in tutte le immagini di tutte le telecamere (Figura 4b). Quando l'esperimento è seminato ad una densità appropriata e una calibrazione accurata viene eseguita, il SA rifocalizzato immagini rivelerà in particelle concentrarsi su ogni piano profondità (Figura 5). Se il volume di misura è finita semi, il SNR nelle immagini riorientate sarà basso rendendo difficile ricostruire le particelle. SA riorientato le immagini con un buon SNR può essere thresholded di trattenere particelle di messa a fuoco su ogni piano di profondità. Figura 6 mostra due immagini thresholded da due passi temporali al piano = Z -10,6 mm di profondità. Il thresholded VOlume viene quindi analizzato in volumi di interrogatorio che contengono un numero sufficiente di particelle per l'esecuzione di PIV 3. Applicando un algoritmo 3DPIV al volume analizzato produce un campo di velocità del fluido mostrata in figura 7, in questo caso, il campo di flusso che è indotto da una piega modello vocale. La velocità di flusso del campo fuori dal getto è molto piccola, quindi dei pochissimi può essere visto fuori di questa regione. A t = 0 msec la piega vocale è chiuso e velocità molto poco in campo è presente. La grande velocità nel getto a t = 1 msec muove nella direzione y positiva e riduce in intensità da t = 2-4 msec. Le chiude piega t = 5 msec riducendo la velocità del getto ed il ciclo si ripete. Queste immagini non hanno la stessa scorrevolezza, come molti autori precedenti 9 che si presentano fino a 100 immagini mediate, come ogni campo di velocità presentato rappresenta una singola istantanea nel tempo. Come punto di riferimento, simulazioni precedenti hanno dimostrato gli errori tipici di calcolovelocità d per essere dell'ordine del 5-10% su ogni componente di velocità, che comprende errore dall'algoritmo PIV 1 stesso, per l'algoritmo si usi (MatPIV 11 adattato per il 3D), questo errore è noto per essere relativamente grande rispetto altri codici.

Flussi Bubbly sono un'altra area di interesse scientifico che possono beneficiare delle funzionalità 3D di Imaging campo di luce. La tecnica SA può essere applicato similmente a campi di flusso frizzante, che sostituisce la luce laser diffusa con retroilluminazione bianca, che si traduce in immagini come quella mostrata in Figura 8a in cui i bordi bolle appaiono scuri contro lo sfondo bianco. Dopo autocalibrazione, la variante moltiplicativa dell'algoritmo SA può essere applicato per ottenere una pila focale con bolle nitide sul piano profondità corrispondente alla profondità della bolla e dalla vista offuscata su altri piani, come mostrato in Figura 8b-d 7. Soglia semplice non èun metodo adeguato per estrarre le bolle, invece una serie di algoritmi avanzati feature extraction sono utilizzati come dettagliato in 7.

Figura 1
Figura 1. Immagini di telecamere e corde vocali con etichette e il sistema di coordinate.

Figura 2
Figura 2. Griglia di calibrazione a Z = 0 mm come si vede da tutte le 8 telecamere.

Figura 3
Figura 3. Topview di configurazione della telecamera da multi-camera di uscita di auto calibrazione. Telecamere 1-8 si trovano con i numeri e cerchi, con la loro visione generale direction indicato da una linea. Il blob rosso vicino l'origine è in realtà 400 punti + dalla griglia di calibrazione a ciascuna profondità Z tracciate in 3D rispetto alle telecamere.

Figura 4
Figura 4. Crude immagini di particelle del campo visualizzato dalla telecamera # 6 a T 1 e T 2 (A e B). Stesse immagini dopo la pre-elaborazione (C & D).

Figura 5
Figura 5 Da sinistra a destra:. Prime immagini riorientate SAPIV a profondità (a) Z = -5,9 mm, (b) mm -10,6 e (c) -15,3 mm.

Figura 6
Figura 6. Threshoimmagini lded a passi temporali (a) t 1 e (b) t 2 a Z = -10,6 mm.

Figura 7
Figura 7. Tridimensionale campo vettoriale del getto creato da sintetici corde vocali per 6 fasi temporali. Il lato sinistro mostra una vista isometrica del intero campo di velocità 3D. Tagli della xy e YZ sono realizzati attraverso il centro delle corde vocali come indicato sopra ogni colonna.

Figura 8
Figura 8 Da sinistra a destra:. Immagine Raw del campo di moto frizzante dalla matrice fotocamera e delle immagini riorientate a profondità (b) Z = -10 mm, (c) 0 mm e (d) 10 mm.Il cerchio evidenzia una bolla che si trova sulla Z = -10 piano mm di profondità, e scompare dalla vista su altri piani. Dettagli degli esperimenti bolla possono essere trovati in 4.

Discussion

Diversi passaggi sono fondamentali per la corretta esecuzione di un esperimento Luce Imaging campo. Selezione della lente e il posizionamento della telecamera deve essere scelto con cura per massimizzare la risoluzione all'interno del volume di misura. La calibrazione è forse la fase più critica, in quanto gli algoritmi rifocalizzazione SA mancherà di produrre immagini nitide e precise senza una calibrazione accurata. Fortunatamente, multi-camera di auto-calibrazione facilita la calibrazione accurata con un livello relativamente basso di sforzo. Illuminazione uniforme in tutte le immagini che fornisce un buon contrasto tra gli oggetti di interesse e lo sfondo è necessario, anche se l'elaborazione delle immagini in grado di normalizzare le immagini ad un grado.

La tempistica è importante anche quando si eseguono SA sui volumi che sono oggetti in movimento. Se ogni telecamera non viene attivato a prendere un'immagine al tempo stesso, la ricostruzione dell'immagine sarà ovviamente imprecisa. Per gli esperimenti in questo documento abbiamo utilizzato la sequenza di sincronizzazione shown in Figura 7.

Le applicazioni di imaging 3D Luce di campo qui presentato comporta una risoluzione spaziale trade-off. Per esempio, 3D SAPIV può ricostruire volumi particelle da immagini di particelle otticamente dense, ma le particelle sono distribuite in un (potenzialmente grande) volume. Per 2D PIV, le particelle sono distribuite su una lamina sottile, e quindi le immagini con la stessa densità di particelle corrispondere a una densità molto maggiore nel volume di misura. Tuttavia, il metodo 3D SAPIV permette densità di semina molto più grandi che altri metodi di PIV 3D 1. Un'altra considerazione potenzialmente limitante è l'intensità relativamente grande computazionale associata ai metodi di imaging Luce di campo, la complessità computazionale è tipico per l'immagine basati su metodi di ricostruzione 3D, come tomografica PIV-10.

Per questo esperimento abbiamo usato 8 Photron SA3 telecamere dotate di obiettivi Sigma 105 millimetri macro e un QUANTRONix doppio Darwin Nd: YLF laser (532 nm, 200 mJ). Le telecamere e laser sono stati sincronizzati tra loro tramite una Nucleonics Berkley 575 BNC digitale ritardo / generatore di impulsi. Il flusso di fluido è stato seminato con Expancel elio riempito microsfere di vetro. Le microsfere hanno un diametro medio di 70 micron con una densità di 0,15 g / cc. Offriamo versioni open source dei codici utilizzati nel presente documento per la comunità accademica attraverso il nostro sito http://www.3dsaimaging.com/ ed incoraggiamo gli utenti a darci feedback e partecipare al miglioramento e la fornitura di codici utili per la comunità quantitativa campo di luce.

Disclosures

Non abbiamo nulla da rivelare.

Acknowledgments

Vorremmo ringraziare NSF concedere CMMI # 1126862 per finanziare le attrezzature e lo sviluppo di algoritmi ad apertura sintetica alla BYU, In-house laboratorio indipendente di ricerca (ILIR) fondi (controllato dal Dr. Tony Ruffa) per il finanziamento del materiale e lo sviluppo a NUWC Newport, e NIH / dell'NIDCD R01DC009616 sovvenzione per il finanziamento SLT, DJD e JRN e dati relativi agli esperimenti vocali piega e l'Università di Erlangen Scuola di Dottorato in Tecnologie Avanzate ottiche (SAOT) per il supporto parziale di SLT. Infine, il Rocky Mountain NASA Space Consorzio di sovvenzione per il finanziamento JRN.

References

  1. Belden, J., Truscott, T. T., Axiak, M., Techet, A. H. Three-dimensional synthetic aperture particle imaging velocimetry. Measurement Science and Technology. 21, (12), 125403 (2010).
  2. Wilburn, B., Joshi, N., Vaish, V., Talvala, E. -V., Antunez, E., Barth, A., Adams, A., Horowitz, M., Levoy, M. High performance imaging using large camera arrays. ACM Trans. Graph. 24, 765-776 (2005).
  3. Raffel, M., Willert, C., Wereley, S., Kompenhaus, J. Particle image velocimetry - A Practical Guide. Springer-Verlag. Berlin. (2007).
  4. Belden, J. Auto-Calibration of Multi-Camera Systems with Refractive Interfaces. Experiments in Fluids. In Review (2013).
  5. Svoboda, T., Martinec, M., Pajdla, T. A convenient multi-camera self-calibration for virtual environments. PRESENCE: Teleoperators and Virtual Environments. 14, (4), 407-422 (2005).
  6. Synthetic aperture focusing using a shear-warp factorization of the viewing transfor. Vaish, V., Garg, G., Talvala, E., Antunez, E., Wilburn, B., Horowitz, M., Levoy, M. 3, 129 (2005).
  7. Belden, J., Ravela, S., Truscott, T. T., Techet, A. H. Three-Dimensional Bubble Field Resolution Using Synthetic Aperture Imaging: Application to a Plunging Jet. Experiments in Fluids. Accepted (2012).
  8. Levoy, M., Ng, R., Adams, A., Footer, M., Horowitz, M. Light field microscopy. ACM Transactions on Graphics. 25, (3), (2006).
  9. Triep, M., Brücker, C. Three-dimensional nature of the glottal jet. Journal of the Acoustical Society of America. 127, 1537-1547 (2008).
  10. Elsinga, G., Scarano, F., Wieneke, B., van Oudheusden, B. Tomographic particle image velocimetry. Experiments in Fluids. 41, 933-947 (2006).
  11. MatPIV [Internet]. Available from: http://folk.uio.no/jks/matpiv/index2.html (2004).
Determinazione campi di flusso 3D tramite multi-camera campo di luce Imaging
Play Video
PDF DOI

Cite this Article

Truscott, T. T., Belden, J., Nielson, J. R., Daily, D. J., Thomson, S. L. Determining 3D Flow Fields via Multi-camera Light Field Imaging. J. Vis. Exp. (73), e4325, doi:10.3791/4325 (2013).More

Truscott, T. T., Belden, J., Nielson, J. R., Daily, D. J., Thomson, S. L. Determining 3D Flow Fields via Multi-camera Light Field Imaging. J. Vis. Exp. (73), e4325, doi:10.3791/4325 (2013).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter