c# pdf reader text : Cut pages out of pdf Library software component asp.net winforms .net mvc SzeliskiBook_20100903_draft62-part639

12.6 Model-based reconstruction
599
Figure 12.14 Interactive architectural modeling using the Fac¸ade system (Debevec,Taylor,
and Malik 1996) c    1996ACM:(a)inputimagewithuser-drawnedgesshowningreen;
(b) shaded 3D solid model; (c) geometric primitives overlaid onto the input image; (d) final
view-dependent, texture-mapped 3D model.
(Figure12.14b–c). This approach is intrinsically more reliable than general feature-based
structure from motion, because it exploits the strong geometry available in the block primi-
tives. Related work byBeckerandBove(1995),Horry,Anjyo,andArai(1997), andCrimin-
isi, Reid, and Zisserman(2000)exploitssimilarinformationavailablefromvanishingpoints.
In the interactive, image-based modeling system ofSinha,Steedly, Szeliskietal.(2008),
vanishing point directions are used to guide the user drawing of polygons, which are then
automatically fitted to sparse 3D points recovered using structure from motion.
Once the rough geometry has been estimated, more detailed offset maps can be com-
puted for each planar face using a local plane sweep, whichDebevec,Taylor, andMalik
(1996) call model-based stereo. Finally, during rendering, images from different viewpoints
are warped and blended together as the camera moves around the scene, using a process (re-
lated to light field and Lumigraph rendering, see Section13.3) called view-dependent texture
mapping (Figure12.14d).
For interior modeling, instead of working with single pictures, it is more useful to work
with panoramas, since you can see larger extents of walls and other structures. The 3D mod-
eling system developed byShum,Han,andSzeliski(1998) first constructs calibratedpanora-
mas from multiple images (Section7.4) and then has the user draw vertical and horizontal
lines in the image to demarcate the boundaries of planar regions. The lines are initially used
toestablish anabsolute rotation for each panorama and are later used (along with the inferred
vertices and planes) to optimize the 3D structure, which can be recovered up to scale from
one or moreimages (Figure12.15). 360 highdynamic rangepanoramas canalso be used for
outdoor modeling, since they provide highly reliableestimates of relative camera orientations
as well as vanishing point directions (AntoneandTeller2002;Teller,Antone,Bodnaretal.
Cut pages out of pdf - remove PDF pages in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Provides Users with Mature Document Manipulating Function for Deleting PDF Pages
delete a page from a pdf acrobat; delete page pdf
Cut pages out of pdf - VB.NET PDF Page Delete Library: remove PDF pages in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Visual Basic Sample Codes to Delete PDF Document Page in .NET
add and remove pages from a pdf; delete pages from pdf document
600
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
Figure 12.15 Interactive 3D modeling from panoramas (Shum, Han, andSzeliski1998)
c 1998 IEEE: (a) wide-angle view of a panorama with user-drawn vertical and horizontal
(axis-aligned) lines; (b) single-view reconstruction of the corridors.
2003).
While earlier image-based modeling systems required some user authoring,Wernerand
Zisserman(2002)presentafullyautomatedline-basedreconstructionsystem. Asdescribed
in Section7.5.1, they first detect lines and vanishing points and use them to calibrate the
camera; then they establish line correspondences using both appearance matching and tri-
focal tensors, which enables them to reconstruct families of 3D line segments, as shown in
Figure12.16a. They then generate plane hypotheses, using both co-planar 3D lines and a
plane sweep (Section11.1.2) based on cross-correlation scores evaluated at interest points.
Intersections of planes areusedto determine the extent of each plane, i.e., an initialcoarse ge-
ometry, which is then refined with the addition of rectangular or wedge-shaped indentations
and extrusions (Figure12.16c). Note that when top-down maps of the buildings being mod-
eled are available, these canbe used to further constrain the 3D modeling process (Robertson
and Cipolla 2002, 2009).Theideaofusingmatched3Dlinesforestimatingvanishingpoint
directions and dominant planes continues to be used in a number of recent fully automated
image-based architectural modeling systems (Zebedin,Bauer,Karneretal.2008;Miˇcuˇs´ık
andKoˇseck´a 2009; Furukawa, Curless, Seitz et al. 2009b;Sinha, Steedly, and Szeliski 2009).
Another common characteristic of architecture is the repeated use of primitives such as
windows, doors, and colonnades. Architectural modeling systems can be designed to search
for such repeated elements and to use them as part of the structure inference process (Dick,
Torr, andCipolla2004; Mueller, Zeng, Wonkaet al. 2007; Schindler, Krishnamurthy, Lublin-
erman et al. 2008; Sinha, Steedly, Szeliski et al. 2008).
Thecombination of all these techniques nowmakes it possibleto reconstructthe structure
of large 3D scenes (ZhuandKanade2008). For example, the Urbanscan system ofPolle-
feys, Nist´er, Frahm et al.(2008)reconstructstexture-mapped3Dmodelsofcitystreetsfrom
videos acquired with a GPS-equipped vehicle. To obtain real-time performance, they use
both optimized on-line structure-from-motion algorithms, as well as GPU implementations
VB.NET Image: Image Cropping SDK to Cut Out Image, Picture and
VB.NET Image Cropper Control SDK to Cut Out Part of Image. Do you need to cut out certain unwanted part from one image file by VB.NET code?
delete page from pdf document; delete pdf pages android
C# HTML5 PDF Viewer SDK to view PDF document online in C#.NET
Image: Copy, Paste, Cut Image in Page. Link: Edit URL. Bookmark can view PDF document in single page or continue pages. Support to zoom in and zoom out PDF page.
delete a page from a pdf reader; delete pages pdf online
12.6 Model-based reconstruction
601
(a)
(b)
(c)
(d)
Figure 12.16 Automated architectural reconstruction using 3D lines and planes (Werner
andZisserman 2002)
c
2002 Springer: (a) reconstructed 3Dlines, color coded by their van-
ishing directions; (b) wire-frame model superimposed onto an input image; (c) triangulated
piecewise-planar model with windows; (d) final texture-mapped model.
of plane-sweep stereo aligned to dominant planes and depth map fusion. Cornelis,Leibe,
Cornelis et al.(2008)presentarelatedsystemthatalsousesplane-sweepstereo(alignedto
vertical building fac¸ades) combined with object recognition and segmentation for vehicles.
Miˇcuˇs´ık and Koˇseck´a(2009)buildontheseresultsusingomni-directionalimagesandsuper-
pixel-based stereo matchingalong dominant plane orientations. Reconstruction directlyfrom
active range scanning data combined with color imagery that has been compensated for ex-
posure and lighting variations is also possible (ChenandChen2008;Stamos,Liu,Chenet
al. 2008; Troccoli and Allen 2008).
12.6.2 Heads and faces
Another area in which specialized shape and appearance models are extremely helpful is in
the modeling of heads and faces. Even though the appearance of people seems at first glance
to be infinitely variable, the actual shape of a person’s head and face can be described rea-
sonably well using a few dozen parameters (Pighin,Hecker,Lischinskietal.1998;Guenter,
Grimm, Wood et al. 1998; DeCarlo, Metaxas, and Stone 1998; Blanz and Vetter 1999; Shan,
Liu, and Zhang 2001).
Figure12.17shows an exampleof animage-basedmodelingsystem, where user-specified
keypoints in several images are used to fit a generic head model to a person’s face. As you
can see in Figure12.17c, after specifying just over 100 keypoints, the shape of the face has
become quite adapted and recognizable. Extracting a texture map from the original images
and then applying it to the head model results in an animatable model with striking visual
fidelity (Figure12.18a).
Amore powerful system canbe built byapplying principal component analysis (PCA) to
acollection of 3D scanned faces, which is a topic we discuss in Section12.6.3. As you can
see in Figure12.19, it is then possible to fit morphable 3D models to single images and to
VB.NET PDF- View PDF Online with VB.NET HTML5 PDF Viewer
Remove Image from PDF Page. Image: Copy, Paste, Cut Image in can view PDF document in single page or continue pages. Support to zoom in and zoom out PDF page.
delete pages from a pdf in preview; delete a page from a pdf without acrobat
VB.NET PDF Text Extract Library: extract text content from PDF
Extract highlighted text out of PDF document. Image text extraction control provides text extraction from PDF images and image files.
delete blank page in pdf; delete page from pdf
602
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
Figure 12.17 3D model fitting to a collection of images: (Pighin,Hecker,Lischinskiet
al. 1998) c 1998ACM:(a)setoffiveinputimagesalongwithuser-selectedkeypoints;(b)
the complete set of keypoints and curves; (c) three meshes—the original, adapted after 13
keypoints, and after an additional 99 keypoints; (d) the partition of the image into separately
animatable regions.
(a)
(b)
Figure 12.18 Head andexpression tracking and re-animation using deformable 3Dmodels.
(a) Models fit directly to five input video streams (Pighin, Szeliski, andSalesin2002)  c
2002 Springer: The bottom row shows the results of re-animating a synthetic texture-mapped
3D model with pose and expression parameters fitted to the input images in the top row. (b)
Modelsfittoframe-rate spacetimestereosurfacemodels(Zhang,Snavely,Curlessetal.2004)
c
2004 ACM: The top row shows the input images with synthetic green markers overlaid,
while the bottom row shows the fitted 3D surface model.
C# PDF Text Extract Library: extract text content from PDF file in
Ability to extract highlighted text out of PDF document. Please have a quick test by using the following C# example code for text extraction from all PDF pages.
acrobat remove pages from pdf; delete pdf pages reader
C# WPF PDF Viewer SDK to view PDF document in C#.NET
Image from PDF Page. Image: Copy, Paste, Cut Image in PDF pages extract, copy, paste, C#.NET rotate PDF pages, C#.NET Abilities to zoom in and zoom out PDF page.
delete blank page from pdf; cut pages out of pdf online
12.6 Model-based reconstruction
603
use such models for a variety of animation and visual effects (BlanzandVetter1999). It is
also possible to design stereo matching algorithms that optimize directly for the head model
parameters (Shan,Liu,andZhang2001;KangandJones2002) or to use the output of real-
time stereo with active illumination (Zhang,Snavely,Curlessetal.2004) (Figures12.7 and
12.18b).
As the sophistication of 3D facial capture systems evolves, sodoes the detail and realism
inthe reconstructedmodels. Newer systems can capture (inreal-time) notonlysurfacedetails
such as wrinkles and creases, but also accurate models of skin reflection, translucency, and
sub-surface scattering (Weyrich,Matusik,Pfisteretal.2006;Golovinskiy,Matusik,steretal.
2006; Bickel, Botsch, Angst et al. 2007; Igarashi, Nishino, and Nayar 2007).
Once a 3D head model has been constructed, it can be used in a variety of applications,
suchas headtracking (Toyama1998;Lepetit,Pilet,andFua2004;Matthews,Xiao,andBaker
2007), asshowninFigures4.29and14.24,andfacetransfer, i.e.,replacingoneperson’s
face with another in a video (Bregler,Covell,andSlaney1997;Vlasic,Brand,Pfisteretal.
2005). Additionalapplicationsincludefacebeautificationbywarpingfaceimagestowarda
more attractive “standard” (Leyvand,Cohen-Or,Droretal.2008), face de-identification for
privacy protection (Gross,Sweeney, DelaTorreetal.2008), and face swapping (Bitouk,
Kumar, Dhillon et al. 2008).
12.6.3 Application: Facial animation
Perhaps the most widely used application of 3D head modeling is facial animation. Once
aparameterized 3D model of shape and appearance (surface texture) has been constructed,
it can be used directly to track a person’s facial motions (Figure12.18a) and to animate a
different character with these same motions and expressions (Pighin,Szeliski,andSalesin
2002).
Animproved versionof such asystem can be constructedby firstapplying principal com-
ponent analysis (PCA) to the space of possible head shapes and facial appearances. Blanz
and Vetter(1999)describeasystemwheretheyfirstcaptureasetof200coloredrangescans
of faces (Figure12.19a), which can be represented as a large collection of (X;Y;Z;R;G;B)
samples (vertices).
9
In order for 3D morphing to be meaningful, corresponding vertices in
different people’s scans must first be put into correspondence (Pighin,Hecker,Lischinskiet
al. 1998).Oncethisisdone,PCAcanbeappliedtomorenaturallyparameterizethe3Dmor-
phable model. The flexibility of this modelcan be increased byperformingseparate analyses
in different subregions, such as the eyes, nose, and mouth, just as in modular eigenspaces
(MoghaddamandPentland1997).
Acylindricalcoordinatesystemprovidesanaturaltwo-dimensionalembeddingforthiscollection,butsuchan
embedding is not necessary to perform PCA.
VB.NET PDF - View PDF with WPF PDF Viewer for VB.NET
Image from PDF Page. Image: Copy, Paste, Cut Image in PDF pages extract, copy, paste, C#.NET rotate PDF pages, C#.NET Abilities to zoom in and zoom out PDF page.
cut pages out of pdf file; delete pages pdf preview
C# PDF Form Data fill-in Library: auto fill-in PDF form data in C#
Able to fill out all PDF form field in C#.NET. RasterEdge XDoc.PDF SDK package provides PDF field processing features for your C# project.
delete a page from a pdf without acrobat; delete a page from a pdf
604
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
Figure 12.19 3D morphable face model (BlanzandVetter1999)
c
1999 ACM: (a) orig-
inal 3D face model with the addition of shape and texture variations in specific directions:
deviation from the mean (caricature), gender, expression, weight, and nose shape; (b) a 3D
morphable model is fit to a single image, after which its weight or expression can be manip-
ulated; (c) another example of a 3D reconstruction alongwith a different set of 3D manipula-
tions such as lighting and pose change.
VB.NET PDF - WPF PDF Viewer for VB.NET Program
Image to PDF. Image: Remove Image from PDF Page. Image: Copy, Paste, Cut Image in Users can rotate PDF pages, zoom in or zoom out PDF pages and go to any pages
delete pages from pdf in preview; delete page in pdf
VB.NET PDF- HTML5 PDF Viewer for VB.NET Project
Remove Image from PDF Page. Image: Copy, Paste, Cut Image in NET comment annotate PDF, VB.NET delete PDF pages, VB.NET PDF page and zoom in or zoom out PDF page
delete pages of pdf reader; best pdf editor delete pages
12.6 Model-based reconstruction
605
After computing a subspace representation, different directions in this space can be as-
sociated with different characteristics such as gender, facial expressions, or facial features
(Figure12.19a). As in the work ofRowlandandPerrett(1995), faces can be turned into
caricatures by exaggerating their displacement from the mean image.
3D morphable models can be fitted to a single image using gradient descent on the error
between the input image and the re-synthesized model image, after an initial manual place-
ment of the model in an approximately correct pose, scale, and location (Figures12.19b–c).
The efficiency of this fitting process can be increased using inverse compositional image
alignment (8.648.65), as described byRomdhaniandVetter(2003).
The resulting texture-mapped 3D model can then be modified to produce a variety of vi-
sualeffects, includingchanging a person’s weight or expression, or three-dimensional effects
such as re-lighting or 3D video-based animation (Section13.5.1). Such models can also be
used for video compression, e.g., by only transmitting a small number of facial expression
andposeparameters to drivea synthetic avatar (Eisert,Wiegand,andGirod2000;Gao,Chen,
Wang et al. 2003).
3D facial animation is often matched to the performance of an actor, in what is known
as performance-driven animation (Section4.1.5) (Williams1990). Traditional performance-
driven animation systems use marker-based motion capture (Ma,Jones,Chiangetal.2008),
while some newer systems use video footage to control the animation (Buck, Finkelstein,
Jacobs et al. 2000; Pighin, Szeliski, and Salesin 2002; Zhang, Snavely, Curless et al. 2004;
Vlasic, Brand, Pfister et al. 2005).
An example of the latter approach is the system developed for the film Benjamin Button,
in which Digital Domain used the CONTOUR system from Mova
10
to capture actor Brad
Pitt’s facial motions and expressions (RobleandZafar2009). CONTOUR uses a combina-
tion of phosphorescent paint andmultiple high-resolution video cameras to capture real-time
3D range scans of the actor. These 3D models were then translated into Facial Action Cod-
ing System (FACS) shape and expression parameters (EkmanandFriesen1978) to drive a
different (older) synthetically animated computer-generated imagery (CGI) character.
12.6.4 Whole body modeling and tracking
The topics of tracking humans, modeling their shape and appearance, and recognizing their
activities, are some of the most actively studied areas of computer vision. Annual confer-
ences11 and special journal issues (Hilton,Fua,andRonfard2006) are devoted to this sub-
ject, and two recent surveys (Forsyth,Arikan,Ikemotoetal.2006;Moeslund,Hilton,and
10 http://www.mova.com.
11
International Conferenceon Automatic Faceand Gesture Recognition (FG), IEEE Workshop on Analysis and
ModelingofFaces andGestures,and InternationalWorkshop on Tracking HumansfortheEvaluationoftheirMotion
in ImageSequences (THEMIS).
606
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
Kr¨uger 2006)eachlistover400papersdevotedtothesetopics.
12
The HumanEva database
of articulated human motions
13
contains multi-view video sequences of human actions along
withcorrespondingmotion capturedata, evaluationcode, anda reference3Dtracker based on
particle filtering. The companion paper bySigal,Balan,andBlack (2010) not only describes
the database and evaluation but also has a nice survey of important work in this field.
Given the breadth of this area, it is difficult to categorize all of this research, especially
since different techniques usually build on each other.Moeslund,Hilton,andKr¨uger(2006)
divide their survey into initialization, tracking (which includes background modeling and
segmentation), poseestimation, and action(activity) recognition.Forsyth,Arikan,Ikemotoet
al.(2006)dividetheirsurveyintosectionsontracking(backgroundsubtraction,deformable
templates, flow, and probabilistic models), recovering 3D pose from 2D observations, and
data association and body parts. They also include a section on motion synthesis, which is
more widely studied in computer graphics (ArikanandForsyth2002;Kovar,Gleicher,and
Pighin 2002; Lee, Chai, Reitsma et al. 2002; Li, Wang, and Shum 2002; Pullen and Bregler
2002),seeSection13.5.2.Anotherpotentialtaxonomyforworkinthisfieldwouldbealong
the lines of whether 2D or 3D (or multi-view) images are used as input and whether 2D or
3D kinematic models are used.
In this section, we briefly reviewsome of the more seminaland widely cited papers in the
areas of backgroundsubtraction, initialization anddetection, trackingwithflow, 3D kinematic
models, probabilistic models, adaptive shape modeling, andactivity recognition. We refer the
reader to the previously mentioned surveys for other topics and more details.
Background subtraction. Oneofthefirststepsinmany(butcertainlynotall)humantrack-
ing systems is to model the background in order to extract the moving foreground objects
(silhouettes) corresponding to people.Toyama,Krumm,Brumittetal.(1999) review several
difference matting and background maintenance (modeling) techniques and provide a good
introduction to this topic. StaufferandGrimson (1999) describe some techniques based on
mixture models, whileSidenbladhandBlack (2003) develop a more comprehensive treat-
ment, which models not only the background image statistics but also the appearance of the
foreground objects, e.g., their edge and motion (frame difference) statistics.
Once silhouettes have been extracted from one or more cameras, they can then be mod-
eled using deformable templates or other contour models (BaumbergandHogg1996;Wren,
Azarbayejani, Darrell et al. 1997).Trackingsuchsilhouettesovertimesupportstheanalysis
of multiple people moving around a scene, including building shape and appearance models
12 OldersurveysincludethosebyGavrila(1999)andMoeslundandGranum(2001). Somesurveysongesture
recognition, which we do not cover in this book, include those byPavlovi´c,Sharma,andHuang(1997) andYang,
Ahuja,and Tabb(2002).
13
http://vision.cs.brown.edu/humaneva/.
12.6 Model-based reconstruction
607
and detecting if they are carrying objects (Haritaoglu,Harwood,andDavis2000;Mittaland
Davis 2003; Dimitrijevic, Lepetit, and Fua 2006).
Initialization and detection. Inordertotrackpeopleinafullyautomatedmanner,itis
necessary to first detect (or re-acquire) their presence in individual video frames. This topic
is closely related topedestrian detection, whichis often consideredas a kindof object recog-
nition (Mori,Ren,Efrosetal.2004;FelzenszwalbandHuttenlocher2005;Felzenszwalb,
McAllester, and Ramanan 2008),andisthereforetreatedinmoredepthinSection14.1.2.
Additionaltechniques for initializing3Dtrackers based on 2Dimages includethosedescribed
byHowe,Leventon,andFreeman(2000),RosalesandSclaroff(2000),Shakhnarovich,Viola,
andDarrell(2003),Sminchisescu, Kanaujia, Liet al.(2005),AgarwalandTriggs(2006),Lee
and Cohen(2006), Sigal and Black(2006),and Stenger, Thayananthan, Torr et al.(2006).
Single-frame human detection and pose estimation algorithms can sometimes be used by
themselves to perform tracking (Ramanan,Forsyth,andZisserman2005;Rogez,Rihan,Ra-
malingam et al. 2008; Bourdev and Malik 2009),asdescribedinSection4.1.4. Moreoften,
however, they are combined with frame-to-frame tracking techniques to provide better relia-
bility (Fossati,Dimitrijevic,Lepetitetal.2007;Andriluka,Roth,andSchiele2008;Ferrari,
Marin-Jimenez, and Zisserman 2008).
Tracking with flow. Thetrackingofpeopleandtheirposefromframetoframecanbeen-
hanced by computing optic flow or matching the appearance of their limbs from one frame
to another. For example, the cardboard people model ofJu,Black,andYacoob (1996) mod-
els the appearance of each leg portion (upper and lower) as a moving rectangle, and uses
optic flow to estimate their location in each subsequent frame. ChamandRehg(1999) and
Sidenbladh, Black, andFleet(2000)tracklimbsusingopticalflowandtemplates,alongwith
techniques for dealing with multiple hypotheses and uncertainty.Bregler,Malik,andPullen
(2004) use a full3Dmodel of limb and body motion, as describedbelow. It is alsopossible to
match the estimated motion field itself to some prototypes in order to identify the particular
phase of a running motion or to match two low-resolution video portions in order to perform
video replacement (Efros,Berg,Morietal.2003).
3D kinematic models. Theeffectivenessofhumanmodelingandtrackingcanbegreatly
enhanced using a more accurate 3D model of a person’s shape and motion. Underlying such
representations, whichare ubiquitous in3D computer animation in games and special effects,
is a kinematic modelor kinematic chain, which specifies the lengthof each limbin a skeleton
as well as the 2D or 3D rotation angles between the limbs or segments (Figure12.20a–b).
Inferring the values of the joint angles from the locations of the visible surface points is
called inverse kinematics (IK) and is widely studied in computer graphics.
608
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
Figure 12.20 Tracking 3D human motion: (a) kinematic chain model for a human hand
(Rehg,Morris,andKanade2003)  c 2003, reprinted by permission of SAGE; (b) tracking a
kinematic chain blob model in a video sequence (Bregler,Malik,andPullen2004)  c 2004
Springer; (c–d) probabilistic loose-limbed collection of body parts (Sigal,Bhatia,Rothetal.
2004)
Figure12.20a shows the kinematic model for a human hand used byRehg,Morris,and
Kanade(2003)totrackhandmotioninavideo.Asyoucansee,theattachmentpointsbetween
the fingers and the thumb have two degrees of freedom, while the finger joints themselves
have only one. Using this kind of model can greatly enhance the ability of an edge-based
tracker to cope with rapid motion, ambiguities in 3Dpose, and partial occlusions.
Kinematic chainmodels are evenmorewidelyused for whole bodymodeling andtracking
(O’RourkeandBadler1980;Hogg1983;Rohr1994). One popular approach is to associate
an ellipsoid or superquadric with each rigid limb in the kinematic model, as shown in Fig-
ure12.20b. This model can then be fitted to each frame in one or more video streams either
by matching silhouettes extracted from known backgrounds or by matching and tracking the
locations of occluding edges (GavrilaandDavis1996;KakadiarisandMetaxas2000;Bre-
gler, Malik, and Pullen 2004; Kehl and Van Gool 2006). Notethatsometechniquesuse2D
models coupled to 2D measurements, some use 3D measurements (range data or multi-view
video) with 3D models, and some use monocular video to infer and track 3D models directly.
It is also possible to use temporal models to improve the tracking of periodic motions,
such as walking, by analyzingthe jointangles as functions of time (PolanaandNelson1997;
Seitz and Dyer 1997; Cutler and Davis 2000).Thegeneralityandapplicabilityofsuchtech-
niques can be improved by learning typical motion patterns using principal component anal-
ysis (Sidenbladh,Black,andFleet2000;Urtasun,Fleet,andFua2006).
Probabilistic models. Becausetrackingcanbesuchadifficulttask,sophisticatedproba-
bilistic inference techniques are often used to estimate the likely states of the person being
tracked. One popular approach, called particle filtering (IsardandBlake1998), was origi-
nally developed for tracking the outlines of people and hands, as described in Section5.1.2
Documents you may be interested
Documents you may be interested