crystal report export to pdf without viewer c# : Extract page from pdf acrobat Library software class asp.net wpf html ajax Appendix_A0-part424

common core state stanDarDs For 
english Language arts 
Literacy in  
History/social studies,  
science, and technical subjects
appendix a: 
research supporting  
Key elements of the standards  
Glossary of Key terms
Extract page from pdf acrobat - control software system:C# PDF Page Extract Library: copy, paste, cut PDF pages in C#.net, ASP.NET, MVC, Ajax, WinForms, WPF
Easy to Use C# Code to Extract PDF Pages, Copy Pages from One PDF File and Paste into Others
www.rasteredge.com
Extract page from pdf acrobat - control software system:VB.NET PDF Page Extract Library: copy, paste, cut PDF pages in vb.net, ASP.NET, MVC, Ajax, WinForms, WPF
Detailed VB.NET Guide for Extracting Pages from Microsoft PDF Doc
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   2
reading
One of the key requirements of the Common Core State Standards for Reading is that all students must be able to 
comprehend texts of steadily increasing complexity as they progress through school. By the time they complete the 
core, students must be able to read and comprehend independently and proficiently the kinds of complex texts com-
monly found in college and careers. The first part of this section makes a research-based case for why the complex-
ity of what students read matters. In brief, while reading demands in college, workforce training programs, and life in 
general have held steady or increased over the last half century, K–12 texts have actually declined in sophistication, 
and relatively little attention has been paid to students’ ability to read complex texts independently. These conditions 
have left a serious gap between many high school seniors’ reading ability and the reading requirements they will face 
after graduation. The second part of this section addresses how text complexity can be measured and made a regular 
part of instruction. It introduces a three-part model that blends qualitative and quantitative measures of text com-
plexity with reader and task considerations. The section concludes with three annotated examples showing how the 
model can be used to assess the complexity of various kinds of texts appropriate for different grade levels.
Why text complexity matters
In 2006, ACT, Inc., released a report called Reading Between the Lines that showed which skills differentiated those 
students who equaled or exceeded the benchmark score (21 out of 36) in the reading section of the ACT college ad-
missions test from those who did not. Prior ACT research had shown that students achieving the benchmark score or 
better in reading—which only about half (51 percent) of the roughly half million test takers in the 2004–2005 academ-
ic year had done—had a high probability (75 percent chance) of earning a C or better in an introductory, credit-bear-
ing course in U.S. history or psychology (two common reading-intensive courses taken by first-year college students) 
and a 50 percent chance of earning a B or better in such a course.1
Surprisingly, what chiefly distinguished the performance of those students who had earned the benchmark score or 
better from those who had not was not their relative ability in making inferences while reading or answering questions 
related to particular cognitive processes, such as determining main ideas or determining the meaning of words and 
phrases in context. Instead, the clearest differentiator was students’ ability to answer questions associated with com-
plex texts. Students scoring below benchmark performed no better than chance (25 percent correct) on four-option 
multiple-choice questions pertaining to passages rated as “complex” on a three-point qualitative rubric described in 
the report. These findings held for male and female students, students from all racial/ethnic groups, and students from 
families with widely varying incomes. The most important implication of this study was that a pedagogy focused only 
on “higher-order” or “critical” thinking was insufficient to ensure that students were ready for college and careers: 
what students could read, in terms of its complexity, was at least as important as what they could do with what they 
read.
The ACT report is one part of an extensive body of research attesting to the importance of text complexity in reading 
achievement. The clear, alarming picture that emerges from the evidence, briefly summarized below2, is that while the 
reading demands of college, workforce training programs, and citizenship have held steady or risen over the past fifty 
years or so, K–12 texts have, if anything, become less demanding. This finding is the impetus behind the Standards’ 
strong emphasis on increasing text complexity as a key requirement in reading.
College, Careers, and Citizenship: Steady or Increasing Complexity of Texts and Tasks
Research indicates that the demands that college, careers, and citizenship place on readers have either held steady or 
increased over roughly the last fifty years. The difficulty of college textbooks, as measured by Lexile scores, has not 
decreased in any block of time since 1962; it has, in fact, increased over that period (Stenner, Koons, & Swartz, in press). 
The word difficulty of every scientific journal and magazine from 1930 to 1990 examined by Hayes and Ward (1992) 
had actually increased, which is important in part because, as a 2005 College Board study (Milewski, Johnson, Glazer, & 
Kubota, 2005) found, college professors assign more readings from periodicals than do high school teachers. Work-
place reading, measured in Lexiles, exceeds grade 12 complexity significantly, although there is considerable variation 
(Stenner, Koons, & Swartz, in press). The vocabulary difficulty of newspapers remained stable over the 1963–1991 period 
Hayes and his colleagues (Hayes, Wolfer, & Wolfe, 1996) studied.
Furthermore, students in college are expected to read complex texts with substantially greater independence (i.e., 
much less scaffolding) than are students in typical K–12 programs. College students are held more accountable for 
what they read on their own than are most students in high school (Erickson & Strommer, 1991; Pritchard, Wilson, & 
Yamnitz, 2007). College instructors assign readings, not necessarily explicated in class, for which students might be 
held accountable through exams, papers, presentations, or class discussions. Students in high school, by contrast, are 
1
In the 2008–2009 academic year, only 53 percent of students achieved the reading benchmark score or higher; the increase 
from 2004–2005 was not statistically significant. See ACT, Inc. (2009).
2
Much of the summary found in the next two sections is heavily influenced by Marilyn Jager Adams’s painstaking review of 
the relevant literature. See Adams (2009).
control software system:.NET PDF Document Viewing, Annotation, Conversion & Processing
Extract bookmark & outlines. Extract hyperlink inside PDF. PDF Write. Print. Support for all the print modes in Acrobat PDF. Print only specified page ranges.
www.rasteredge.com
control software system:C# PDF Converter Library SDK to convert PDF to other file formats
using other external third-party dependencies like Adobe Acrobat. to image or document, or from PDF document to other file formats, like multi-page TIFF file
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   3
rarely held accountable for what they are able to read independently (Heller & Greenleaf, 2007). This discrepancy in 
task demand, coupled with what we see below is a vast gap in text complexity, may help explain why only about half 
of the students taking the ACT Test in the 2004–2005 academic year could meet the benchmark score in reading 
(which also was the case in 2008–2009, the most recent year for which data are available) and why so few students 
in general are prepared for postsecondary reading (ACT, Inc., 2006, 2009).
K–12 Schooling: Declining Complexity of Texts 
and a Lack of Reading of Complex Texts Independently
Despite steady or growing reading demands from various sources, K–12 reading texts have actually trended downward 
in difficulty in the last half century. Jeanne Chall and her colleagues (Chall, Conard, & Harris, 1977) found a thirteen-
year decrease from 1963 to 1975 in the difficulty of grade 1, grade 6, and (especially) grade 11 texts. Extending the 
period to 1991, Hayes, Wolfer, and Wolfe (1996) found precipitous declines (relative to the period from 1946 to 1962) in 
average sentence length and vocabulary level in reading textbooks for a variety of grades. Hayes also found that while 
science books were more difficult to read than literature books, only books for Advanced Placement (AP) classes had 
vocabulary levels equivalent to those of even newspapers of the time (Hayes & Ward, 1992). Carrying the research 
closer to the present day, Gary L. Williamson (2006) found a 350L (Lexile) gap between the difficulty of end-of-high 
school and college texts—a gap equivalent to 1.5 standard deviations and more than the Lexile difference between 
grade 4 and grade 8 texts on the National Assessment of Educational Progress (NAEP). Although legitimate questions 
can be raised about the tools used to measure text complexity (e.g., Mesmer, 2008), what is relevant in these numbers 
is the general, steady decline—over time, across grades, and substantiated by several sources—in the difficulty and 
likely also the sophistication of content of the texts students have been asked to read in school since 1962.
There is also evidence that current standards, curriculum, and instructional practice have not done enough to foster 
the independent reading of complex texts so crucial for college and career readiness, particularly in the case of infor-
mational texts. K–12 students are, in general, given considerable scaffolding—assistance from teachers, class discus-
sions, and the texts themselves (in such forms as summaries, glossaries, and other text features)—with reading  that is 
already less complex overall than that typically required of students prior to 1962.3 What is more, students today are 
asked to read very little expository text—as little as 7 and 15 percent of elementary and middle school instructional 
reading, for example, is expository (Hoffman, Sabo, Bliss, & Hoy, 1994; Moss & Newton, 2002; Yopp & Yopp, 2006)—
yet much research supports the conclusion that such text is harder for most students to read than is narrative text 
(Bowen & Roth, 1999; Bowen, Roth, & McGinn, 1999, 2002; Heller & Greenleaf, 2007; Shanahan & Shanahan, 2008), 
that students need sustained exposure to expository text to develop important reading strategies (Afflerbach, Pear-
son, & Paris, 2008; Kintsch, 1998, 2009; McNamara, Graesser, & Louwerse, in press; Perfetti, Landi, & Oakhill, 2005; 
van den Broek, Lorch, Linderholm, & Gustafson, 2001; van den Broek, Risden, & Husebye-Hartmann, 1995), and that 
expository text makes up the vast majority of the required reading in college and the workplace (Achieve, Inc., 2007). 
Worse still, what little expository reading students are asked to do is too often of the superficial variety that involves 
skimming and scanning for particular, discrete pieces of information; such reading is unlikely to prepare students for 
the cognitive demand of true understanding of complex text.
The Consequences: Too Many Students Reading at Too Low a Level
The impact that low reading achievement has on students’ readiness for college, careers, and life in general is signifi-
cant. To put the matter bluntly, a high school graduate who is a poor reader is a postsecondary student who must 
struggle mightily to succeed. The National Center for Education Statistics (NCES) (Wirt, Choy, Rooney, Provasnik, Sen, 
& Tobin, 2004) reports that although needing to take one or more remedial/developmental courses of any sort low-
ers a student’s chance of eventually earning a degree or certificate, “the need for remedial reading appears to be the 
most serious barrier to degree completion” (p. 63). Only 30 percent of 1992 high school seniors who went on to enroll 
in postsecondary education between 1992 and 2000 and then took any remedial reading course went on to receive a 
degree or certificate, compared to 69 percent of the 1992 seniors who took no postsecondary remedial courses and 
57 percent of those who took one remedial course in a subject other than reading or mathematics. Considering that 11 
percent of those high school seniors required at least one remedial reading course, the societal impact of low reading 
achievement is as profound as its impact on the aspirations of individual students.
Reading levels among the adult population are also disturbingly low. The 2003 National Assessment of Adult Literacy 
(Kutner, Greenberg, Jin, Boyle, Hsu, & Dunleavy, 2007) reported that 14 percent of adults read prose texts at “below 
basic” level, meaning they could exhibit “no more than the most simple and concrete literacy skills”; a similarly small 
number (13 percent) could read prose texts at the “proficient level,” meaning they could perform “more complex 
and challenging literacy activities” (p. 4). The percent of “proficient” readers had actually declined in a statistically 
significant way from 1992 (15 percent). This low and declining achievement rate may be connected to a general lack 
of reading. As reported by the National Endowment for the Arts (2004), the percent of U.S. adults reading literature 
dropped from 54.0 in 1992 to 46.7 in 2002, while the percent of adults reading any book also declined by 7 percent 
3
As also noted in “Key Considerations in Implementing Text Complexity,” below, it is important to recognize that scaffolding 
often is entirely appropriate. The expectation that scaffolding will occur with particularly challenging texts is built into the 
Standards’ grade-by-grade text complexity expectations, for example. The general movement, however, should be toward de-
creasing scaffolding and increasing independence both within and across the text complexity bands defined in the Standards.
control software system:C# powerpoint - PowerPoint Conversion & Rendering in C#.NET
without using other external third-party dependencies like Adobe Acrobat. PowerPoint to PDF Conversion. This page will tell you how to use XDoc.PowerPoint SDK
www.rasteredge.com
control software system:C# Word - Word Conversion in C#.NET
independently, without using other external third-party dependencies like Adobe Acrobat. Word to PDF Conversion. This page will tell you how to use XDoc.Word
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   4
during the same time period. Although the decline occurred in all demographic groups, the steepest decline by far 
was among 18-to-24- and 25-to-34-year-olds (28 percent and 23 percent, respectively). In other words, the problem 
of lack of reading is not only getting worse but doing so at an accelerating rate. Although numerous factors likely 
contribute to the decline in reading, it is reasonable to conclude from the evidence presented above that the deterio-
ration in overall reading ability, abetted by a decline in K–12 text complexity and a lack of focus on independent read-
ing of complex texts, is a contributing factor.
Being able to read complex text independently and proficiently is essential for high achievement in college and 
the workplace and important in numerous life tasks. Moreover, current trends suggest that if students cannot read 
challenging texts with understanding—if they have not developed the skill, concentration, and stamina to read such 
texts—they will read less in general. In particular, if students cannot read complex expository text to gain informa-
tion, they will likely turn to text-free or text-light sources, such as video, podcasts, and tweets. These sources, while 
not without value, cannot capture the nuance, subtlety, depth, or breadth of ideas developed through complex text. 
As Adams (2009) puts it, “There may one day be modes and methods of information delivery that are as efficient 
and powerful as text, but for now there is no contest. To grow, our students must read lots, and more specifically they 
must read lots of ‘complex’ texts—texts that offer them new language, new knowledge, and new modes of thought” 
(p. 182). A turning away from complex texts is likely to lead to a general impoverishment of knowledge, which, be-
cause knowledge is intimately linked with reading comprehension ability, will accelerate the decline in the ability to 
comprehend complex texts and the decline in the richness of text itself. This bodes ill for the ability of Americans to 
meet the demands placed upon them by citizenship in a democratic republic and the challenges of a highly competi-
tive global marketplace of goods, services, and ideas.
It should be noted also that the problems with reading achievement are not “equal opportunity” in their effects: 
students arriving at school from less-educated families are disproportionately represented in many of these statis-
tics (Bettinger & Long, 2009). The consequences of insufficiently high text demands and a lack of accountability for 
independent reading of complex texts in K–12 schooling are severe for everyone, but they are disproportionately so for 
those who are already most isolated from text before arriving at the schoolhouse door.
the standards’ approach to text complexity
To help redress the situation described above, the Standards define a three-part model for determining how easy or 
difficult a particular text is to read as well as grade-by-grade specifications for increasing text complexity in suc-
cessive years of schooling (Reading standard 10). These are to be used together with grade-specific standards that 
require increasing sophistication in students’ reading comprehension ability (Reading standards 1–9). The Standards 
thus approach the intertwined issues of what and how student read.
A Three-Part Model for Measuring Text Complexity
As signaled by the graphic at right, the Standards’ model of 
text complexity consists of three equally important parts.
(1) Qualitative dimensions of text complexity. In the Stan-
dards, qualitative dimensions and qualitative factors refer 
to those aspects of text complexity best measured or only 
measurable by an attentive human reader, such as levels of 
meaning or purpose; structure; language conventionality and 
clarity; and knowledge demands.
(2) Quantitative dimensions of text complexity. The terms 
quantitative dimensions and quantitative factors refer to 
those aspects of text complexity, such as word length or fre-
quency, sentence length, and text cohesion, that are difficult 
if not impossible for a human reader to evaluate efficiently, 
especially in long texts, and are thus today typically mea-
sured by computer software.
(3) Reader and task considerations. While the prior two 
elements of the model focus on the inherent complexity of 
text, variables specific to particular readers (such as motiva-
tion, knowledge, and experiences) and to particular tasks 
(such as purpose and the complexity of the task assigned 
and the questions posed) must also be considered when determining whether a text is appropriate for a given stu-
dent. Such assessments are best made by teachers employing their professional judgment, experience, and knowl-
edge of their students and the subject.
Figure 1: The Standards’ Model of Text Complexity
control software system:C# Windows Viewer - Image and Document Conversion & Rendering in
standard image and document in .NET class applications independently, without using other external third-party dependencies like Adobe Acrobat. Convert to PDF.
www.rasteredge.com
control software system:VB.NET PDF: How to Create Watermark on PDF Document within
or image (such as business's logo) on any desired PDF page. And with our PDF Watermark Creator, users need no external application plugin, like Adobe Acrobat.
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   5
The Standards presume that all three elements will come into play when text complexity and appropriateness are 
determined. The following pages begin with a brief overview of just some of the currently available tools, both quali-
tative and quantitative, for measuring text complexity, continue with some important considerations for using text 
complexity with students, and conclude with a series of examples showing how text complexity measures, balanced 
with reader and task considerations, might be used with a number of different texts.
Qualitative and Quantitative Measures of Text Complexity
The qualitative and quantitative measures of text complexity described below are representative of the best tools 
presently available. However, each should be considered only provisional; more precise, more accurate, and easier-
to-use tools are urgently needed to help make text complexity a vital, everyday part of classroom instruction and 
curriculum planning.
Qualitative Measures of Text Complexity
Using qualitative measures of text complexity involves making an informed decision about the difficulty of a text in 
terms of one or more factors discernible to a human reader applying trained judgment to the task. In the Standards, 
qualitative measures, along with professional judgment in matching a text to reader and task, serve as a necessary 
complement and sometimes as a corrective to quantitative measures, which, as discussed below, cannot (at least at 
present) capture all of the elements that make a text easy or challenging to read and are not equally successful in rat-
ing the complexity of all categories of text.
Built on prior research, the four qualitative factors described below are offered here as a first step in the development 
of robust tools for the qualitative analysis of text complexity. These factors are presented as continua of difficulty 
rather than as a succession of discrete “stages” in text complexity. Additional development and validation would be 
needed to translate these or other dimensions into, for example, grade-level- or grade-band-specific rubrics. The 
qualitative factors run from easy (left-hand side) to difficult (right-hand side). Few, if any, authentic texts will be low 
or high on all of these measures, and some elements of the dimensions are better suited to literary or to informational 
texts.
(1) Levels of Meaning (literary texts) or Purpose (informational texts). Literary texts with a single level of meaning tend 
to be easier to read than literary texts with multiple levels of meaning (such as satires, in which the author’s literal mes-
sage is intentionally at odds with his or her underlying message). Similarily, informational texts with an explicitly stated 
purpose are generally easier to comprehend than informational texts with an implicit, hidden, or obscure purpose.
(2) Structure. Texts of low complexity tend to have simple, well-marked, and conventional structures, whereas texts 
of high complexity tend to have complex, implicit, and (particularly in literary texts) unconventional structures. Simple 
literary texts tend to relate events in chronological order, while complex literary texts make more frequent use of 
flashbacks, flash-forwards, and other manipulations of time and sequence. Simple informational texts are likely not to 
deviate from the conventions of common genres and subgenres, while complex informational texts are more likely to 
conform to the norms and conventions of a specific discipline. Graphics tend to be simple and either unnecessary or 
merely supplementary to the meaning of texts of low complexity, whereas texts of high complexity tend to have simi-
larly complex graphics, graphics whose interpretation is essential to understanding the text, and graphics that provide 
an independent source of information within a text. (Note that many books for the youngest students rely heavily on 
graphics to convey meaning and are an exception to the above generalization.)
(3) Language Conventionality and Clarity. Texts that rely on literal, clear, contemporary, and conversational language tend 
to be easier to read than texts that rely on figurative, ironic, ambiguous, purposefully misleading, archaic or otherwise unfa-
miliar language or on general academic and domain-specific vocabulary.
(4) Knowledge Demands. Texts that make few assumptions about the extent of readers’ life experiences and the 
depth of their cultural/literary and content/discipline knowledge are generally less complex than are texts that make 
many assumptions in one or more of those areas.
control software system:VB.NET PowerPoint: VB Code to Draw and Create Annotation on PPT
other documents are compatible, including PDF, TIFF, MS platform-friendly, this .NET PPT page annotating component more plug-ins needed like Acrobat or Adobe
www.rasteredge.com
control software system:C# Excel - Excel Conversion & Rendering in C#.NET
independently, without using other external third-party dependencies like Adobe Acrobat. Excel to PDF Conversion. This page will tell you how to use XDoc.Excel
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   6
Figure 2: Qualitative Dimensions of Text Complexity
Levels of Meaning (literary texts) or Purpose (informational texts)
• 
Single level of meaning  Multiple levels of meaning
• 
Explicitly stated purpose  Implicit purpose, may be hidden or obscure
Structure 
• 
Simple  Complex
• 
Explicit  Implicit
• 
Conventional  Unconventional (chiefly literary texts)
• 
Events related in chronological order  Events related out of chronological order (chiefly literary texts)
• 
Traits of a common genre or subgenre  Traits specific to a particular discipline (chiefly informational texts)
• 
Simple graphics  Sophisticated graphics
• 
Graphics unnecessary or merely supplementary to understanding the text  Graphics essential to understanding the text 
and may provide information not otherwise conveyed in the text
Language Conventionality and Clarity
• 
Literal  Figurative or ironic
• 
Clear  Ambiguous or purposefully misleading
• 
Contemporary, familiar  Archaic or otherwise unfamiliar
• 
Conversational  General academic and domain-specific
Knowledge Demands: Life Experiences (literary texts)
• 
Simple theme  Complex or sophisticated themes
• 
Single themes  Multiple themes
• 
Common, everyday experiences or clearly fantastical situations  Experiences distinctly different from one’s own
• 
Single perspective  Multiple perspectives
• 
Perspective(s) like one’s own  Perspective(s) unlike or in opposition to one’s own
Knowledge Demands: Cultural/Literary Knowledge (chiefly literary texts)
• 
Everyday knowledge and familiarity with genre conventions required  Cultural and literary knowledge useful
• 
Low intertextuality (few if any references/allusions to other texts)  High intertextuality (many references/allusions to other 
texts)
Knowledge Demands: Content/Discipline Knowledge (chiefly informational texts)
• 
Everyday knowledge and familiarity with genre conventions required  Extensive, perhaps specialized discipline-specific 
content knowledge required
• 
Low intertextuality (few if any references to/citations of other texts)  High intertextuality (many references to/citations of 
other texts)
Adapted from ACT, Inc. (2006). Reading between the lines: What the ACT reveals about college readiness in reading. Iowa City, IA: Author; Carnegie 
Council on Advancing Adolescent Literacy. (2010). Time to act: An agenda for advancing adolescent literacy for college and career success. 
New York: Carnegie Corporation of New York; Chall, J. S., Bissex, G. L., Conrad, S. S., & Harris-Sharples, S. (1996). Qualitative assessment of text 
difficulty: A practical guide for teachers and writers. Cambridge, UK: Brookline Books; Hess, K., & Biggam, S. (2004). A discussion of “increasing 
text complexity.” Published by the New Hampshire, Rhode Island, and Vermont departments of education as part of the New England Common 
Assessment Program (NECAP). Retrieved from www.nciea.org/publications/TextComplexity_KH05.pdf
control software system:JPEG to PDF Converter | Convert JPEG to PDF, Convert PDF to JPEG
It can be used standalone. JPEG to PDF Converter is able to convert image files to PDF directly without the software Adobe Acrobat Reader for conversion.
www.rasteredge.com
control software system:PDF to WORD Converter | Convert PDF to Word, Convert Word to PDF
PDF to Word Converter has accurate output, and PDF to Word Converter doesn't need the support of Adobe Acrobat & Microsoft Word.
www.rasteredge.com
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   7
Quantitative Measures of Text Complexity
A number of quantitative tools exist to help educators assess aspects of text complexity that are better measured 
by algorithm than by a human reader. The discussion is not exhaustive, nor is it intended as an endorsement of one 
method or program over another. Indeed, because of the limits of each of the tools, new or improved ones are needed 
quickly if text complexity is to be used effectively in the classroom and curriculum.
Numerous formulas exist for measuring the readability of various types of texts. Such formulas, including the widely 
used Flesch-Kincaid Grade Level test, typically use word length and sentence length as proxies for semantic and 
syntactic complexity, respectively (roughly, the complexity of the meaning and sentence structure). The assump-
tion behind these formulas is that longer words and longer sentences are more difficult to read than shorter ones; a 
text with many long words and/or sentences is thus rated by these formulas as harder to read than a text with many 
short words and/or sentences would be. Some formulas, such as the Dale-Chall Readability Formula, substitute word 
frequency for word length as a factor, the assumption here being that less familiar words are harder to comprehend 
than familiar words. The higher the proportion of less familiar words in a text, the theory goes, the harder that text is 
to read. While these readability formulas are easy to use and readily available—some are even built into various word 
processing applications—their chief weakness is that longer words, less familiar words, and longer sentences are not 
inherently hard to read. In fact, series of short, choppy sentences can pose problems for readers precisely because 
these sentences lack the cohesive devices, such as transition words and phrases, that help establish logical links 
among ideas and thereby reduce the inference load on readers.
Like Dale-Chall, the Lexile Framework for Reading, developed by MetaMetrics, Inc., uses word frequency and sentence 
length to produce a single measure, called a Lexile, of a text’s complexity. The most important difference between the 
Lexile system and traditional readability formulas is that traditional formulas only assign a score to texts, whereas the 
Lexile Framework can place both readers and texts on the same scale. Certain reading assessments yield Lexile scores 
based on student performance on the instrument; some reading programs then use these scores to assign texts to 
students. Because it too relies on word familiarity and sentence length as proxies for semantic and syntactic complex-
ity, the Lexile Framework, like traditional formulas, may underestimate the difficulty of texts that use simple, familiar 
language to convey sophisticated ideas, as is true of much high-quality fiction written for adults and appropriate for 
older students. For this reason and others, it is possible that factors other than word familiarity and sentence length 
contribute to text difficulty. In response to such concerns, MetaMetrics has indicated that it will release the qualita-
tive ratings it assigns to some of the texts it rates and will actively seek to determine whether one or more additional 
factors can and should be added to its quantitative measure. Other readability formulas also exist, such as the ATOS 
formula associated with the Accelerated Reader program developed by Renaissance Learning. ATOS uses word dif-
ficulty (estimated grade level), word length, sentence length, and text length (measured in words) as its factors. Like 
the Lexile Framework, ATOS puts students and texts on the same scale.
A nonprofit service operated at the University of Memphis, Coh-Metrix attempts to account for factors in addition to 
those measured by readability formulas. The Coh-Metrix system focuses on the cohesiveness of a text—basically, how 
tightly the text holds together. A high-cohesion text does a good deal of the work for the reader by signaling relation-
ships among words, sentences, and ideas using repetition, concrete language, and the like; a low-cohesion text, by 
contrast, requires the reader him- or herself to make many of the connections needed to comprehend the text. High-
cohesion texts are not necessarily “better” than low-cohesion texts, but they are easier to read.
The standard Coh-Metrix report includes information on more than sixty indices related to text cohesion, so it can be 
daunting to the layperson or even to a professional educator unfamiliar with the indices. Coh-Metrix staff have worked 
to isolate the most revealing, informative factors from among the many they consider, but these “key factors” are not 
yet widely available to the public, nor have the results they yield been calibrated to the Standards’ text complexity 
grade bands. The greatest value of these factors may well be the promise they offer of more advanced and usable 
tools yet to come.
Reader and Task Considerations
The use of qualitative and quantitative measures to assess text complexity is balanced in the Standards’ model by the 
expectation that educators will employ professional judgment to match texts to particular students and tasks. Numer-
ous considerations go into such matching. For example, harder texts may be appropriate for highly knowledgeable or 
skilled readers, and easier texts may be suitable as an expedient for building struggling readers’ knowledge or reading 
skill up to the level required by the Standards. Highly motivated readers are often willing to put in the extra effort re-
quired to read harder texts that tell a story or contain information in which they are deeply interested. Complex tasks 
may require the kind of information contained only in similarly complex texts.
Numerous factors associated with the individual reader are relevant when determining whether a given text is ap-
propriate for him or her. The RAND Reading Study Group identified many such factors in the 2002 report Reading for 
Understanding:
The reader brings to the act of reading his or her cognitive capabilities (attention, memory, critical analytic 
ability, inferencing, visualization); motivation (a purpose for reading, interest in the content, self-efficacy as 
a reader); knowledge (vocabulary and topic knowledge, linguistic and discourse knowledge, knowledge of 
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   8
comprehension strategies); and experiences.
As part of describing the activity of reading, the RAND group also named important task-related variables, includ-
ing the reader’s purpose (which might shift over the course of reading), “the type of reading being done, such as 
skimming (getting the gist of the text) or studying (reading the text with the intent of retaining the information for a 
period of time),” and the intended outcome, which could include “an increase in knowledge, a solution to some real-
world problem, and/or engagement with the text.”
4
Key considerations in Implementing text complexity
Texts and Measurement Tools
The tools for measuring text complexity are at once useful and imperfect. Each of the qualitative and quantitative 
tools described above has its limitations, and none is completely accurate. The development of new and improved 
text complexity tools should follow the release of the Standards as quickly as possible. In the meantime, the Stan-
dards recommend that multiple quantitative measures be used whenever possible and that their results be confirmed 
or overruled by a qualitative analysis of the text in question.
Certain measures are less valid or inappropriate for certain kinds of texts. Current quantitative measures are suitable 
for prose and dramatic texts. Until such time as quantitative tools for capturing poetry’s difficulty are developed, de-
termining whether a poem is appropriately complex for a given grade or grade band will necessarily be a matter of a 
qualitative assessment meshed with reader-task considerations. Furthermore, texts for kindergarten and grade 1 may 
not be appropriate for quantitative analysis, as they often contain difficult-to-assess features designed to aid early 
readers in acquiring written language. The Standards’ poetry and K–1 text exemplars were placed into grade bands by 
expert teachers drawing on classroom experience.
Many current quantitative measures underestimate the challenge posed by complex narrative fiction. Quantitative 
measures of text complexity, particularly those that rely exclusively or in large part on word- and sentence-level fac-
tors, tend to assign sophisticated works of literature excessively low scores. For example, as illustrated in example 2 
below, some widely used quantitative measures, including the Flesch-Kincaid Grade Level test and the Lexile Frame-
work for Reading, rate the Pulitzer Prize–winning novel Grapes of Wrath as appropriate for grades 2–3. This coun-
terintuitive result emerges because works such as Grapes often express complex ideas in relatively commonplace 
language (familiar words and simple syntax), especially in the form of dialogue that mimics everyday speech. Until 
widely available quantitative tools can better account for factors recognized as making such texts challenging, includ-
ing multiple levels of meaning and mature themes, preference should likely be given to qualitative measures of text 
complexity when evaluating narrative fiction intended for students in grade 6 and above.
Measures of text complexity must be aligned with college and career readiness expectations for all students. Qualita-
tive scales of text complexity should be anchored at one end by descriptions of texts representative of those re-
quired in typical first-year credit-bearing college courses and in workforce training programs. Similarly, quantitative 
measures should identify the college- and career-ready reading level as one endpoint of the scale. MetaMetrics, for 
example, has realigned its Lexile ranges to match the Standards’ text complexity grade bands and has adjusted up-
ward its trajectory of reading comprehension development through the grades to indicate that all students should be 
reading at the college and career readiness level by no later than the end of high school.
Figure 3: Text Complexity Grade Bands and Associated Lexile Ranges (in Lexiles)
Text Complexity Grade 
Band in the Standards
Old Lexile Ranges 
Lexile Ranges Aligned 
to 
CCR expectations
K–1
N/A
N/A
2–3
450–725
450–790
4–5
645–845
770–980
6–8
860–1010
955–1155
9–10
960–1115
1080–1305
11–CCR
1070–1220
1215–1355
4
RAND Reading Study Group. (2002). Reading for understanding: Toward an R&D program in reading comprehension. Santa 
Monica, CA: RAND. The quoted text appears in pages xiii–xvi.
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   9
Readers and Tasks
Students’ ability to read complex text does not always develop in a linear fashion. Although the progression of Read-
ing standard 10 (see below) defines required grade-by-grade growth in students’ ability to read complex text, the 
development of this ability in individual students is unlikely to occur at an unbroken pace. Students need opportuni-
ties to stretch their reading abilities but also to experience the satisfaction and pleasure of easy, fluent reading within 
them, both of which the Standards allow for. As noted above, such factors as students’ motivation, knowledge, and 
experiences must also come into play in text selection. Students deeply interested in a given topic, for example, may 
engage with texts on that subject across a range of complexity. Particular tasks may also require students to read 
harder texts than they would normally be required to. Conversely, teachers who have had success using particular 
texts that are easier than those required for a given grade band should feel free to continue to use them so long as 
the general movement during a given school year is toward texts of higher levels of complexity.
Students reading well above and well below grade-band level need additional support. Students for whom texts within 
their text complexity grade band (or even from the next higher band) present insufficient challenge must be given the 
attention and resources necessary to develop their reading ability at an appropriately advanced pace. On the other 
hand, students who struggle greatly to read texts within (or even below) their text complexity grade band must be 
given the support needed to enable them to read at a grade-appropriate level of complexity.
Even many students on course for college and career readiness are likely to need scaffolding as they master higher 
levels of text complexity. As they enter each new grade band, many students are likely to need at least some extra 
help as they work to comprehend texts at the high end of the range of difficulty appropriate to the band. For ex-
ample, many students just entering grade 2 will need some support as they read texts that are advanced for the 
grades 2–3 text complexity band. Although such support is educationally necessary and desirable, instruction must 
move generally toward decreasing scaffolding and increasing independence, with the goal of students reading in-
dependently and proficiently within a given grade band by the end of the band’s final year (continuing the previous 
example, the end of grade 3).
Common Core State StandardS for engliSh language artS  & literaCy in hiStory/SoCial StudieS, SCienCe, and teChniCal SubjeCtS
appendix a  |   10
the standards’ Grade-specific text complexity Demands
As illustrated in figure 4, text complexity in the Standards is defined in grade bands: grades 2–3, 4–5, 6–8, 9–10, and 
11–CCR.
5
Students in the first year(s) of a given band are expected by the end of the year to read and comprehend 
proficiently within the band, with scaffolding as needed at the high end of the range. Students in the last year of a 
band are expected by the end of the year to read and comprehend independently and proficiently within the band.
Figure 4: The Progression of Reading Standard 10
Grade(s)
Reading Standard 10 (individual text types omitted)
K
Actively engage in group reading activities with purpose and understanding.
1
With prompting and support, read prose and poetry [informational texts] of appropriate complexity 
for grade 1.
2
By the end of the year, read and comprehend literature [informational texts] in the grades 2–3 text 
complexity band proficiently, with scaffolding as needed at the high end of the range.
3
By the end of the year, read and comprehend literature [informational texts] at the high end of the 
grades 2–3 text complexity band independently and proficiently.
4
By the end of the year, read and comprehend literature [informational texts] in the grades 4–5 text 
complexity band proficiently, with scaffolding as needed at the high end of the range.
5
By the end of the year, read and comprehend literature [informational texts] at the high end of the 
grades 4–5 text complexity band independently and proficiently.
6
By the end of the year, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] in the grades 6–8 text complexity band proficiently, with scaffolding as 
needed at the high end of the range.
7
By the end of the year, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] in the grades 6–8 text complexity band proficiently, with scaffolding as 
needed at the high end of the range.
8
By the end of the year, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] at the high end of the grades 6–8 text complexity band independently 
and proficiently.
9–10
By the end of grade 9, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] in the grades 9–10 text complexity band proficiently, with scaffolding as 
needed at the high end of the range.
By the end of grade 10, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] at the high end of the grades 9–10 text complexity band independently 
and proficiently.
11–12
By the end of grade 11, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] in the grades 11–CCR text complexity band proficiently, with scaffolding 
as needed at the high end of the range.
By the end of grade 12, read and comprehend literature [informational texts, history/social studies 
texts, science/technical texts] at the high end of the grades 11–CCR text complexity band indepen-
dently and proficiently.
5
As noted above in “Key Considerations in Implementing Text Complexity,” K–1 texts are not amenable to quantitative meas-
ure. Furthermore, students in those grades are acquiring the code at varied rates. Hence, the Standards’ text complexity 
requirements begin formally with grade 2.
Documents you may be interested
Documents you may be interested