c# pdf reader text : Delete blank pages in pdf online control SDK system azure wpf winforms console SzeliskiBook_20100903_draft67-part644

13.6 Additional reading
649
Early work on planar impostors and layers was carried out byShade,Lischinski,Salesin
et al.(1996), Lengyel and Snyder(1997),and Torborg and Kajiya(1996),whilenewerwork
based on sprites with depth is described byShade,Gortler,Heetal.(1998).
The twofoundational papers inimage-based rendering are Light field rendering byLevoy
and Hanrahan(1996)andThe Lumigraphby Gortler, Grzeszczuk, Szeliski et al.(1996).
Buehler, Bosse, McMillan et al.(2001)generalizetheLumigraphapproachtoirregularly
spaced collections of images, whileLevoy (2006) provides a survey and more gentle intro-
duction to the topic of light field and image-based rendering.
Surface light fields (Wood,Azuma,Aldingeretal.2000) provide an alternative param-
eterization for light fields with accurately known surface geometry and support both better
compressionand the possibility of editing surface properties. Concentric mosaics (Shumand
He 1999; Shum, Wang, Chai et al. 2002)andpanoramaswithdepth(Peleg, Ben-Ezra, and
Pritch 2001; Li, Shum, Tang et al. 2004; Zheng, Kang, Cohen et al. 2007),provideuseful
parameterizations for light fields captured with panning cameras. Multi-perspective images
(RademacherandBishop1998) and manifoldprojections (PelegandHerman1997), although
not true light fields, are also closely related to these ideas.
Among the possible extensions of light fields to higher-dimensional structures, environ-
ment mattes (Zongker,Werner,Curlessetal.1999;Chuang,Zongker,Hindorffetal.2000)
are the most useful, especially for placing captured objects into new scenes.
Video-based rendering, i.e., the re-use of video to create new animations or virtual ex-
periences, started with the seminal work ofSzummerandPicard (1996), Bregler, Covell,
and Slaney(1997),and Sch¨odl, Szeliski, Salesin et al.(2000). Importantfollow-onwork
to these basic re-targeting approaches was carried out bySch¨odlandEssa (2002),Kwatra,
Sch¨odl, Essa et al.(2003), Doretto, Chiuso, Wu et al.(2003), Wang and Zhu(2003), Zhong
and Sclaroff(2003), Yuan, Wen, Liu et al. (2004), Doretto and Soatto(2006), Zhao and
Pietik¨ainen(2007),and Chan and Vasconcelos(2009).
Systems that allow users to change their 3D viewpoint based on multiple synchronized
video streams include those byMoezzi, Katkere, Kuramuraetal. (1996), Kanade, Ran-
der, and Narayanan(1997), Matusik, Buehler, Raskar et al.(2000), Matusik, Buehler, and
McMillan(2001), Carranza, Theobalt, Magnor et al.(2003), Zitnick, Kang, Uyttendaele et
al.(2004), Magnor(2005),and Vedula, Baker, and Kanade(2005). 3D(multiview)video
coding and compression is also an active area of research (SmolicandKauff2005;Gotchev
and Rosenhahn 2009),with3DBlu-Raydiscs, encodedusingthemultiviewvideocoding
(MVC) extensionto H.264/MPEG-4 AVC, expected by the end of 2010.
Delete blank pages in pdf online - remove PDF pages in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Provides Users with Mature Document Manipulating Function for Deleting PDF Pages
delete pages on pdf file; add and delete pages in pdf
Delete blank pages in pdf online - VB.NET PDF Page Delete Library: remove PDF pages in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Visual Basic Sample Codes to Delete PDF Document Page in .NET
delete pages pdf preview; delete page pdf file
650
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
13.7 Exercises
Ex 13.1: Depth image rendering Develop a “view extrapolation” algorithm to re-render a
previously computedstereo depthmapcoupledwith its corresponding reference color image.
1. Use a 3D graphics mesh rendering system such as OpenGL or Direct3D, with two
triangles per pixel quad and perspective (projective) texture mapping (Debevec, Yu,
and Borshukov 1998).
2. Alternatively, usethe one- or two-passforwardwarper youconstructedinExercise3.24,
extended using (2.682.70) to convert from disparities or depths into displacements.
3. (Optional) Kinks in straight lines introduced during view interpolation or extrapola-
tion are visually noticeable, which is one reason why image morphing systems let you
specify line correspondences (BeierandNeely1992). Modify your depth estimation
algorithm to match and estimate the geometry of straight lines and incorporate it into
your image-based rendering algorithm.
Ex 13.2: View interpolation Extendthesystem you created in the previous exercise to ren-
der two reference views and then blend the images using a combination of z-buffering, hole
filing, and blending (morphing) to create the final image (Section13.1).
1. (Optional) If the two source images have very different exposures, the hole-filled re-
gions and the blended regions will have different exposures. Can you extend your
algorithm to mitigate this?
2. (Optional) Extend your algorithm to perform three-way (trilinear) interpolation be-
tween neighboring views. You can triangulate the reference camera poses and use
barycentriccoordinatesfor thevirtualcamerainorder todeterminethe blendingweights.
Ex 13.3: View morphing Modifyyour viewinterpolation algorithm toperform morphs be-
tween views of a non-rigid object, such as a person changing expressions.
1. Instead of using a pure stereo algorithm, use a general flow algorithm to compute dis-
placements, but separate them into a rigid displacement due to camera motion and a
non-rigid deformation.
2. At render time, use the rigid geometry todetermine the new pixellocation but then add
afraction of the non-rigid displacement as well.
3. Alternatively, compute a stereodepthmapbut let the user specifyadditionalcorrespon-
dences or use a feature-based matching algorithm to provide them automatically.
C# PDF Page Insert Library: insert pages into PDF file in C#.net
such as how to merge PDF document files by C# code, how to rotate PDF document page, how to delete PDF page using Add and Insert Blank Pages to PDF File in
delete pages pdf file; delete pdf pages android
VB.NET PDF Page Insert Library: insert pages into PDF file in vb.
add and insert one or multiple pages to existing adobe PDF document in VB.NET. Ability to create a blank PDF page with related by using following online VB.NET
delete pages out of a pdf; pdf delete page
13.7 Exercises
651
4. (Optional) Take a single image, such as the Mona Lisa or a friend’s picture, and create
an animated 3D viewmorph(SeitzandDyer1996).
(a) Find the vertical axis of symmetry in the image and reflect your reference image
to provide avirtual pair (assuming the person’s hairstyleis somewhatsymmetric).
(b) Use structure from motion to determine the relative camera pose of the pair.
(c) Use dense stereo matching to estimate the 3D shape.
(d) Use view morphing to create a 3D animation.
Ex 13.4: View dependent texture mapping Use a 3D model you created along with the
original images to implement a view-dependent texture mapping system.
1. Use one of the 3D reconstruction techniques you developed in Exercises7.3,11.9,
11.10,or 12.8tobuildatriangulated3Dimage-basedmodelfrommultiplephotographs.
2. Extract textures for each model face from your photographs, either by performing the
appropriate resampling or by figuring out how to use the texture mapping software to
directly access the source images.
3. At run time, for each new camera view, select the best source image for each visible
model face.
4. Extend this to blend between the top two or three textures. This is trickier, since it
involves the useof texture blending or pixel shading (Debevec,Taylor,andMalik1996;
Debevec, Yu, and Borshukov 1998; Pighin, Hecker, Lischinski et al. 1998).
Ex 13.5: Layered depth images Extend your view interpolation algorithm (Exercise13.2)
to store more than one depth or color value per pixel (Shade,Gortler,Heetal.1998), i.e., a
layered depth image (LDI). Modify your renderingalgorithm accordingly. For your data, you
can use synthetic ray tracing, a layered reconstructed model, or a volumetric reconstruction.
Ex 13.6: Rendering from sprites or layers Extend your view interpolation algorithm to
handle multiple planes or sprites (Section13.2.1) (Shade,Gortler,Heetal.1998).
1. Extract your layers using the technique youdeveloped in Exercise8.9.
2. Alternatively, use an interactive painting and 3D placement system to extract your lay-
ers (Kang1998;Oh,Chen,Dorseyetal.2001;Shum,Sun,Yamazakietal.2004).
3. Determine a back-to-front order based on expected visibility or add a z-buffer to your
rendering algorithm to handle occlusions.
C# Create PDF Library SDK to convert PDF from other file formats
Able to download free trial and use online example source code in C# output.pdf"; // Create a new PDF Document object with 2 blank pages PDFDocument doc
cut pages from pdf; delete page from pdf document
C# Word - Insert Blank Word Page in C#.NET
Users to Insert (Empty) Word Page or Pages from a to specify where they want to insert (blank) Word document rotate Word document page, how to delete Word page
add remove pages from pdf; delete pages on pdf online
652
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
4. Render and composite all of the resulting layers, with optional alpha matting to handle
the edges of layers and sprites.
Ex 13.7: Light field transformations Derive the equations relating regular images to 4D
light field coordinates.
1. Determine the mappingbetween the far plane (u;v) coordinates and a virtual camera’s
(x;y) coordinates.
(a) Start by parameterizing a 3D point on the uv plane in terms of its (u;v) coordi-
nates.
(b) Project the resulting 3D point to the camera pixels (x;y;1) using the usual 3  4
camera matrix P (2.63).
(c) Derive the 2Dhomography relating (u;v) and (x;y) coordinates.
2. Write down a similar transformation for (s;t) to (x;y) coordinates.
3. Prove that if the virtual camera is actually on the (s;t) plane, the (s;t) value depends
only on the camera’s optical center and is independent of (x;y).
4. Prove thatan image takenbya regular orthographic or perspectivecamera, i.e., one that
has a linear projective relationship between 3Dpoints and (x;y) pixels (2.63), samples
the (s;t;u;v) light field along a two-dimensional hyperplane.
Ex 13.8: Light field and Lumigraph rendering Implementalightfieldor Lumigraphren-
dering system:
1. Download one of the light field data sets fromhttp://lightfield.stanford.edu/.
2. Write an algorithm to synthesize a new view from this light field, using quadri-linear
interpolation of (s;t;u;v) ray samples.
3. Try varying the focal plane corresponding to your desired view (Isaksen, McMillan,
and Gortler 2000)andseeiftheresultingimagelookssharper.
4. Determine a 3D proxy for the objects in your scene. You can do this by running multi-
view stereo over one of your light fields to obtain a depth map per image.
5. Implement the Lumigraph rendering algorithm, which modifies the sampling of rays
according to the 3D location of each surface element.
6. Collect a set of images yourself and determine their pose using structure from motion.
C# PowerPoint - Insert Blank PowerPoint Page in C#.NET
to Insert (Empty) PowerPoint Page or Pages from a where they want to insert (blank) PowerPoint document PowerPoint document page, how to delete PowerPoint page
cut pages from pdf file; delete pages from pdf file online
VB.NET PDF File & Page Process Library SDK for vb.net, ASP.NET
PDF document is unnecessary, you may want to delete this page instance may consist of newly created blank pages or image VB.NET: Edit and Manipulate PDF Pages.
add and remove pages from pdf file online; delete pdf pages in preview
13.7 Exercises
653
7. ImplementtheunstructuredLumigraph renderingalgorithm fromBuehler,Bosse,McMil-
lan et al.(2001).
Ex 13.9: Surface light fields Construct a surface light field(Wood,Azuma,Aldingeretal.
2000)andseehowwellyoucancompressit.
1. Acquire an interesting light field of a specular scene or object, or download one from
http://lightfield.stanford.edu/.
2. Build a 3D model of the object using a multi-view stereo algorithm that is robust to
outliers due to specularities.
3. Estimate the Lumisphere for each surface point on the object.
4. Estimate its diffuse components. Is the median the best way to do this? Why not use
the minimum color value? What happens if there is Lambertian shading on the diffuse
component?
5. Model and compress the remaining portion of the Lumisphere using one of the tech-
niques suggested byWood,Azuma,Aldingeretal.(2000) or invent one of your own.
6. Study how well your compression algorithm works and what artifacts it produces.
7. (Optional) Develop a system to edit and manipulate your surface light field.
Ex 13.10: Handheld concentric mosaics Develop a system to navigate a handheld con-
centric mosaic.
1. Standin the middle of a room witha camcorder held atarm’s length infront of you and
spin in a circle.
2. Use a structure from motionsystem to determine the camera pose and sparse 3D struc-
ture for each input frame.
3. (Optional) Re-bin your image pixels into a more regular concentric mosaic structure.
4. At view time, determine from the new camera’s view (which should be near the plane
of your original capture) which source pixels to display. You can simplify your com-
putations to determine a source column (and scaling) for eachoutput column.
5. (Optional) Use your sparse 3D structure, interpolatedto a dense depth map, to improve
your rendering (Zheng,Kang,Cohenetal.2007).
VB.NET Create PDF Library SDK to convert PDF from other file
Free trial and use online source code are available for RootPath + "\\" output.pdf" ' Create a new PDF Document object with 2 blank pages Dim doc As
delete pages in pdf reader; cut pages out of pdf online
VB.NET PDF: Get Started with PDF Library
Auto Fill-in Field Data. Field: Insert, Delete, Update Field. RootPath + "\\" output.pdf" ' Create a new PDF Document object with 2 blank pages Dim doc
delete pages from a pdf; delete blank pages in pdf
654
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
Ex 13.11: Video textures Capture some videos of natural phenomena, such as a water
fountain, fire, or smiling face, and loop the video seamlessly into an infinite length video
(Sch¨odl,Szeliski,Salesinetal.2000).
1. Compare all the frames in the original clip using an L
2
(sum of square difference)
metric. (This assumes the videos were shot on a tripodor havealreadybeenstabilized.)
2. Filter thecomparisontabletemporallytoaccentuatetemporal sub-sequences that match
well together.
3. Convert your similarity table into a jump probability table through some exponential
distribution. Be sure to modify transitions near the end so you do not get“stuck” in the
last frame.
4. Starting with the first frame, use your transition table to decide whether to jump for-
ward, backward, or continue to the next frame.
5. (Optional) Add any of the other extensions to the original video textures idea, such
as multiple moving regions, interactive control, or graph cut spatio-temporal texture
seaming.
How to C#: Cleanup Images
returned. Delete Blank Pages. Set property BlankPageDelete to true , blank pages in the document will be deleted. Remove Edges or Borders.
delete pdf pages ipad; delete a page in a pdf file
Chapter 14
Recognition
14.1 Object detection. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
14.1.1 Face detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
14.1.2 Pedestrian detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666
14.2 Face recognition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 668
14.2.1 Eigenfaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 671
14.2.2 Active appearance and 3D shape models. . . . . . . . . . . . . . . . 679
14.2.3 Application: Personal photo collections . . . . . . . . . . . . . . . . 684
14.3 Instance recognition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 685
14.3.1 Geometric alignment . . . . . . . . . . . . . . . . . . . . . . . . . . . 686
14.3.2 Large databases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 687
14.3.3 Application: Location recognition . . . . . . . . . . . . . . . . . . . 693
14.4 Category recognition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696
14.4.1 Bag of words . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 697
14.4.2 Part-based models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 701
14.4.3 Recognition with segmentation. . . . . . . . . . . . . . . . . . . . . 704
14.4.4 Application: Intelligent photo editing . . . . . . . . . . . . . . . . . 709
14.5 Context and scene understanding. . . . . . . . . . . . . . . . . . . . . . . . 712
14.5.1 Learning and large image collections . . . . . . . . . . . . . . . . . 714
14.5.2 Application: Image search . . . . . . . . . . . . . . . . . . . . . . . 717
14.6 Recognition databases andtest sets. . . . . . . . . . . . . . . . . . . . . . . 718
14.7 Additional reading . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 722
14.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 725
656
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(a)
(b)
(c)
(d)
(e)
(f)
(g)
(h)
(i)
Figure 14.1 Recognition: face recognition with (a) pictorial structures (Fischler and
Elschlager 1973) c 1973IEEEand(b)eigenfaces(Turk and Pentland 1991b); (c)real-
time face detection (ViolaandJones2004)  c 2004 Springer; (d) instance (known object)
recognition (Lowe1999)
c
1999 IEEE; (e) feature-based recognition (Fergus,Perona,and
Zisserman 2007);(f)region-basedrecognition(Mori, Ren, Efros et al. 2004) c 2004IEEE;
(g) simultaneous recognition and segmentation (Shotton,Winn,Rotheretal.2009)  c 2009
Springer; (h) location recognition (Philbin,Chum,Isardetal.2007)
c
2007 IEEE; (i) using
context (Russell,Torralba,Liuetal.2007).
14 Recognition
657
Of all the visual tasks we might ask a computer to perform, analyzing a scene and recog-
nizing all of the constituent objects remains the most challenging. While computers excel at
accurately reconstructing the 3D shape of a scene from images taken from different views,
they cannot name all the objects and animals present in a picture, even at the level of a two-
year-old child. There is not even any consensus among researchers on when this level of
performance might be achieved.
Why is recognition so hard? The real world is made of a jumble of objects, which all oc-
clude one another and appear in different poses. Furthermore, the variability intrinsic within
aclass (e.g., dogs), due to complex non-rigid articulationand extreme variations in shape and
appearance (e.g., between different breeds), makes it unlikely that we can simply perform
exhaustive matching against a database of exemplars.
1
The recognition problem can be broken down along several axes. For example, if we
know what we are looking for, the problem is one of object detection (Section14.1), which
involves quickly scanningan image to determine where a matchmayoccur (Figure14.1c). If
wehave aspecific rigid object we are trying to recognize (instance recognition, Section14.3),
we can search for characteristic feature points (Section4.1) and verify that they align in a
geometrically plausible way (Section14.3.1) (Figure14.1d).
The most challenging version of recognition is general category (or class) recognition
(Section14.4), which may involve recognizing instances of extremely varied classes such
as animals or furniture. Some techniques rely purely on the presence of features (known
as a “bag of words” model—see Section14.4.1), their relative positions (part-based models
(Section14.4.2)), Figure14.1e, while others involve segmenting the image into semantically
meaningful regions (Section14.4.3) (Figure14.1f). In many instances, recognition depends
heavily on the context of surrounding objects and scene elements (Section14.5). Woven into
all of these techniques is the topic of learning (Section14.5.1), since hand-crafting specific
object recognizers seems like a futile approach given the complexity of the problem.
Given the extremely rich and complex nature of this topic, this chapter is structured to
build from simpler concepts to more complex ones. We begin with a discussion of face and
objectdetection (Section14.1), where we introduce anumber of machine-learningtechniques
suchas boosting, neural networks, and supportvector machines. Next, westudyface recogni-
tion (Section14.2), whichis one of the more widely known applications of recognition. This
topic serves as an introduction to subspace (PCA) models and Bayesian approaches to recog-
nition and classification. We then present techniques for instance recognition (Section14.3),
building upon earlier topics in this book, such as feature detection, matching, and geomet-
ric alignment (Section14.3.1). We introduce topics from the information and document re-
trieval communities, such as frequency vectors, feature quantization, and inverted indices
However,somerecentresearchsuggeststhatdirectimagematchingmaybefeasibleforlargeenoughdatabases
(Russell,Torralba,Liuetal.2007;MalisiewiczandEfros2008;Torralba,Freeman,andFergus2008).
658
Computer Vision: Algorithms and Applications (September 3, 2010 draft)
(Section14.3.2). We also present applications of location recognition (Section14.3.3).
In the second half of the chapter, we address the most challenging variant of recognition,
namely the problem of categoryrecognition (Section14.4). This includes approaches thatuse
bags of features (Section14.4.1), parts (Section14.4.2), and segmentation (Section14.4.3).
We show howsuch techniques can be used to automate photo editingtasks, such as 3D mod-
eling, scene completion, and creating collages (Section14.4.4). Next, we discuss the role
that context can play in both individual object recognition and more holistic scene under-
standing (Section14.5). We close this chapter with a discussion of databases and testsets for
constructing and evaluatingrecognition systems (Section14.6).
While there is no comprehensive reference on objectrecognition, an excellentset of notes
can be found in the ICCV 2009 short course (Fei-Fei,Fergus,andTorralba2009), Antonio
Torralba’s more comprehensive MIT course (Torralba2008), and two recent collections of
papers (Ponce,Hebert,Schmidetal.2006;Dickinson,Leonardis,Schieleetal.2007) and a
survey on object categorization (Pinz2005). An evaluation of some of the best performing
recognitionalgorithms canbe found on the PASCAL Visual ObjectClasses (VOC) Challenge
Web site athttp://pascallin.ecs.soton.ac.uk/challenges/VOC/.
14.1 Object detection
If we are given an image to analyze, suchas the group portraitin Figure14.2, we could try to
apply a recognition algorithm to every possible sub-window in this image. Such algorithms
are likely to be both slow and error-prone. Instead, it is more effective to construct special-
purpose detectors, whose job it is torapidly findlikelyregions where particular objects might
occur.
We beginthissection withfacedetectors, whicharesome of themore successfulexamples
of recognition. For example, suchalgorithms are built into most of today’s digital cameras to
enhance auto-focus and into video conferencing systems to control pan-tilt heads. We then
look at pedestrian detectors, as an example of more general methods for object detection.
Such detectors can be used in automotive safety applications, e.g., detecting pedestrians and
other cars from moving vehicles (Leibe,Cornelis,Cornelisetal.2007).
14.1.1 Face detection
Before face recognitioncan be applied toa general image, the locations andsizes of any faces
must first be found (Figures14.1c and14.2). In principle, we could apply a face recognition
algorithm ateverypixeland scale (MoghaddamandPentland1997) but sucha process would
be too slow in practice.
Documents you may be interested
Documents you may be interested