31 
Table 8: A segment of a frequency table extracted with STATA's Wordscores 
Word 
OccurCorpus  PerMillionWords  tlwi2008001  tlwi2008002  tlwi2008003 
the 
3423 
79472 
20 
37 
36 
of 
1576 
36590 
14 
14 
38 
and 
1509 
35034 
27 
22 
in 
1388 
32225 
21 
19 
to 
1151 
26723 
14 
20 
church 
758 
17598 
18 
683 
15857 
lwf 
584 
13559 
12 
for 
563 
13071 
on 
438 
10169 
lutheran 
410 
9519 
The  second  procedure  of  interest  is  called  describetext.  It  lists,  for  each  text  in  the 
analyzed corpus, the total word count, the number of unique words, and the mean and 
median frequency of the word use. By first calculating the word frequencies in the corpus 
(“OccurCorpus” in the table
13
), one can ask describetext to return also the total number of 
unique words in the corpus. This, by design, is equal to the number of records in the 
frequency table. For our LWF corpus, describetext reports 3,726 unique words in 43,072 
words  total.  This  is  more  parsimonious  than  the  6,232  word  forms  /  types  which 
TextSTAT reports for 44,577 words / tokens. The economy is the result of stemming and 
excluding numbers. A segment of the resulting table looks like this: 
Table 9: Summary statistics for each document in Wordscores 
Total 
Unique  Mean 
Median 
Text 
Words  Words  Freq. 
Freq. 
tlwi2008001 
297 
154 
1.93 
tlwi2008002 
534 
233 
2.29 
tlwi2008003 
582 
215 
2.71 
tlwi2008004 
97 
57 
1.7 
tlwi2008005 
1,250 
505 
2.48 
tlwi2008006 
1,021 
366 
2.79 
tlwi2008007 
1,415 
252 
5.62 
[etc.] 
freqTotal 
43,072 
3,726 
11.56 
The article LWI2008-007 (which Wordscores returns as “tlwi2008007”) stands out for its 
unusually parsimonious vocabulary or, which is the same, high mean word frequency 
(5.62). As the reader may recall, this piece reported on church growth in the Lutheran 
community,  using  the  words  “Lutheran”  and  “church”  with  rare  high  frequency. 
describetext can thus be used to flag members of the corpus with likely atypical topics 
and vocabulary. 
13
Using egen(OccurCorpus) = rsum(tlwi2008*). 
Pdf form creator - C# PDF Field Edit Library: insert, delete, update pdf form field in C#.net, ASP.NET, MVC, Ajax, WPF
Online C# Tutorial to Insert, Delete and Update Fields in PDF Document
add signature field to pdf; change font in pdf form
Pdf form creator - VB.NET PDF Field Edit library: insert, delete, update pdf form field in vb.net, ASP.NET, MVC, Ajax, WPF
How to Insert, Delete and Update Fields in PDF Document with VB.NET Demo Code
add image to pdf form; pdf save form data
32 
What does this all yield? For an example of a small analysis piece using Wordscores, this 
sidebar looks at the coherence of the 76 LWI news articles that I already introduced as an 
experimental corpus. 
[Sidebar:] The LWI corpus – Dimensionality and semantic network 
Which among the particularly prominent words in this corpus tend to appear together in the 
articles? What kind of preoccupations or foci do these clusters, if there are any, suggest? 
Obviously, that depends on the selection of the terms on which we compare the 76 articles. As in 
many other English language texts, grammatical particles like “the”, “of”, and “and” are the most 
frequent words. Except for questions of style, they do not make suitable comparators. Similarly, 
the self-referent “Lutheran” and acronyms like “LWF” are too common to provide  meaningful 
discriminant markers for most conceivable analyses. 
Unless  meaningful comparators are already  known from research  perspectives  or from pre-
existing acquaintance, they have to be identified. Terms may be pre-selected if they occur in the 
corpus significantly more frequently than in some other corpus that the researcher considers an 
interesting comparison base. For example, Landmann and Zuell (2008), in attempting to identify 
contemporary public events in their corpus of interest, created a large collection of texts from the 
British newspaper “The Guardian”. This was supposed to represent general language usage. 
I adapted their four-step analysis procedure (op.cit.: 488) to flag prominent terms in the LWF 
corpus: 
•  Step 1: Acquisition of the corpus of interest: Download and save all LWI articles for the 
period of time concerned 
•  Step 2: Acquisition of the reference-text corpus that represents general language usage 
•  Step 3: Word selection: 
 a.: Calculation of word frequencies and of relative frequencies for all words in 
both corpora 
 b.: Calculation of differences between the relative word frequencies of specific 
words in the reference-text corpus vs. event-text 
 c.:  Selection  of  the  n  words  with  the  largest  differences  between  general 
language usage and the event texts 
•  Step 4: Exploratory factor analysis based on the selected words. 
For reference, I used the companion frequency list to “Word frequencies in written and spoken 
English: based on the British National Corpus” (Leech, Rayson et al. 2001b: ; Leech, Rayson et al. 
2001a).  This  had  the  advantage  that  the  frequencies  for  the  British  corpus  were  already 
calculated. After stemming, its terms were matched to the LWF word list
14
. From a list of 3,174 
matches, words were pre-selected if they occurred in both corpora more than 5 times per 1 
million words and if the relative frequency in the LWF corpus was more than 5 times greater than 
in the British corpus. This yielded a subset of 282 terms. For flavor, a few examples may suffice: 
Lutheran – 4,758 times more frequent in the LWF corpus; children – 672 times; Rwanda – 556 
times;  divers[-e,  -ity]  –  254  times.  I  whittled  the  282  down  to  100  manually,  eliminating 
geographical and most other named entities as well as ambiguous terms. 
14
This process was more convoluted than this sentence admits and defies brief description. 
C# Create PDF Library SDK to convert PDF from other file formats
Tell Users How to Create New PDF File and Load PDF from Other Files. Free PDF creator SDK for Visual Studio .NET. C# Project: PDF Creator Library DLLs.
build pdf forms; change font size in fillable pdf form
VB.NET Create PDF Library SDK to convert PDF from other file
Free PDF creator SDK library compatible with Visual Basic .NET class and able to create PDF in both .NET WinForms and ASP.NET program.
add fields to pdf form; change font in pdf form field
33 
Figure 7: Factor analysis of 100 terms in the LWI corpus 
faith
identifi
legaci
enhanc
archbishop
christ
conflict
focu
cooper
altar
theologi
topic
anniversari
context
camp
import
prayer
impact
affirm
commit
agenda
bless
promot
leadership
highlight
critic
note
digniti
oblig
nation
leader
violenc
concern
democrat
urgent
tragic
academ
govern
secur
transit
-.2
0
.2
.4
.6
.8
Factor 2 loadings
-.5
0
.5
1
Factor 1 loadings
76 documents. Terms selected when significantly more frequent than in standard British corpus
Factor analysis of 100 substantive terms
LWI articles - First half-year 2008
For this sidebar, I abbreviate the process, presenting a partial result only. By transposing the 
term-document matrix, the 100 key terms became the variables which I factor-analyzed in the 
final  step  of the  Landmann-Zuell  procedure.  The  graph  on  the  previous  page  displays  the 
“clustering” of the terms along two independence axes. 
Two observations impose themselves: 
•  Compared to the outside (everyday language) corpus, there is a remarkable prominence 
of emphatic and appellative terms such as “note”, “commit”, “affirm”, “focus”, “import[ant]”, 
“critic[al]”.  This  may  be  congenial  to  the  organizational  form  of  the  Lutheran  World 
Federation, a federation in which member consensus is crucial, and which engages in 
advocacy work on many fronts. It may also result from a particular editorial style in which 
the content side of the information is carefully managed together with selectivity of the 
communication, in order to ensure attention and acceptance (Luhmann 1987: 196). 
•  What distinguishes the articles within the corpus? The first factor exhibits a cluster (on 
the lower right-hand side) that is more action and governance oriented (e.g., govern*, 
secure*,  democrat*,  violenc*).  It  is  distinct  from  the  obverse  cluster  (left  side)  that 
appears to express identity concerns (e.g., faith, identific*, Christ [incl. Christian], legaci*, 
anniversari*). The second factor – see the cluster in the top area – may highlight the 
explicit theological work that the Federation  facilitates (e.g., theologi*, focu*,  import*, 
context, agenda, bless*). The interpretation of the obverse cluster (see bottom points) is 
not straightforward – one would not want to assume that people gather around the altar 
for prayer only when theologians are not around! 
In fact, these differences are mild when we look at the total factor structure. The leading factors 
explain a small portion of the occurrence variance only. The first factor accounts for 7.5 percent, 
and it takes 11 factors to absorb half of the variance between the 76 articles. This indicates that 
the particular institutional vocabulary is used in a fairly integrated way across topics and authors. 
There are no major semantic cleavages in this particular set of public articles. 
C# PDF metadata Library: add, remove, update PDF metadata in C#.
metadata.Keywords = "University, Public, etc."; metadata.Creator = "MS Office String inputFilePath = Program.RootPath + "\\" 1.pdf"; String outputFilePath
add text field to pdf acrobat; adding text field to pdf
VB.NET PDF - How to Add Barcode on PDF Page
Link: Edit URL. Bookmark: Edit Bookmark. Metadata: Edit, Delete Metadata. Form Process. This VB.NET PDF barcode creator add-on, which combines the PDF
create a fillable pdf form in word; add jpg to pdf form
34 
Factor loadings are a familiar concept for a minority of professionals who analyze data in the 
humanitarian and development fields and may remain ever foreign to their consumers. It may 
therefore be helpful to present some of the factor analysis insights in visual aids that are more 
commonly intuitive. What maps are to statistics, networks may be to statistical charts – a partial 
representation of, or a different approach to, an overly complex or opaque set of relationships. 
For example, for the five concepts with the highest loadings on the first two factors, I constructed 
this semantic network representation based on an association matrix. The matrix was calculated 
with the help of an Excel macro described in the main body and fully given in the appendix. 
Figure 8: Semantic network representation of 10 terms in the LWI corpus 
The more theological concepts (yellow) are arranged on the left side, and the more governance-
oriented (green) on the right, with vertex areas expressing frequency  in the LWI corpus. An 
association pattern appears distinctly. Associations within the governance cluster seem, by and 
large, to be stronger than those among the five terms of the theological cluster. For example, a 
majority of LWI news pieces that carried the concept transit* (transit, transition, etc.) would make 
use also of the concept secure* (secure, security, etc.). Between clusters, strong associations run 
from academ* to critic*, and hence back to govern*. Associations are not symmetrical; only a very 
thin arc leads back from govern* to critic*. 
However didactically appealing the network representation may be, there are two downsides. As 
one can readily see in this graph, most of the strong and very strong associations originate from 
less frequently used concepts (“transition” occurs 5 times in the corpus, govern* 99 times). This 
calls into question the sampling stability of these claimed strong semantic relationships. Second, 
didactic consideration again oblige us to limit the network graph to a small number of nodes (= 
concepts). By doing so, however, the analysis  makes use of a small part of the information, 
compared to the wealth that goes into statistical procedures. 
There is thus a trade-off between aesthetic appeal and intuition on one hand, and validity and 
reliability on the other. Ultimately, this can rise to an ethical conflict. This can happen when the 
analyst feels that his client will not take ownership of statistically supported findings, but will be 
pleased with maps and network graphs that purportedly demonstrate some positive point – or at 
least a profound grip on the project’s reality! 
VB.NET PDF metadata library: add, remove, update PDF metadata in
metadata.Keywords = "University, Public, etc." metadata.Creator = "MS Office Dim inputFilePath As String = Program.RootPath + "\\" 1.pdf" Dim outputFilePath
create a fillable pdf form from a word document; change font on pdf form
VB.NET PowerPoint: VB Codes to Create Linear and 2D Barcodes on
as 2d barcodes QR Code, Data Matrix, PDF-417, etc Imaging.Basic.dll", "RasterEdge. Imaging.Barcode.Creator.dll" and barcode, which will be in the form of REImage
change text size pdf form; add text field pdf
35 
Statistical text analysis thus leads fairly rapidly to interesting second-order questions, 
some of which can perhaps be elucidated by further, keener statistical intrusion. Most of 
the answers, however, should be expected of more classic forms of text analysis (which 
begin by actually reading the texts!) and from going to its authors or to the people that 
they  introduced.  Whether  factor  analysis  or  rather  some  other  particular  statistical 
procedure is appropriate for the material at hand, is not of concern here – the point is that 
Wordscores results can be quickly and powerfully analyzed. This output then can be used 
to stimulate discussion in an evaluation, research or other open-minded setting. 
Climbing higher on the learning curve? 
TextSTAT, text functions and a word-frequency extracting macro in Excel and STATA’s 
Wordscores  are the  three  steps at  which  I  can assist  the  reader  with  some  detailed 
explanations. Naturally, many will want to explore higher ranges of the learning curve, in 
hopes of acquiring ever stronger text analysis tools. This is where I have to part with the 
reader, out of sheer inexperience  or in  doubts about further productivity  gains  in the 
environment in which my  target  audience  works.  But I would like  to  share a couple 
impressions that I formed while peeking into some of these higher spheres, and also offer 
a sidebar on a set of operations that are routinely performed as entry toll to them. These 
concern data preparation. 
Text analytics 
With the expansion of the Internet, text analysis has been expanded – some might say: 
hyped up – to the new field of text analytics. This field, which Wikipedia defines as a 
“set  of  linguistic,  lexical,  pattern  recognition,  extraction,  tagging/structuring, 
visualization, and predictive techniques. The term also describes processes that 
apply these techniques, whether independently or in conjunction with query and 
analysis of fielded, numerical data, to solve business problems. These techniques 
and  processes  discover  and  present  knowledge  –  facts,  business  rules,  and 
relationships  –  that  is  otherwise  locked  in  textual  form,  impenetrable  to 
automated processing”
15
is vigorously growing in alliances among academic, corporate, government and military 
sectors. From these, the NGO part of the aid industry, the social movements that they 
support as well as many academic researchers have habitually kept their distance. Text 
analytics  helps  organizations  manage  large  databases  with  textual  elements,  in  call 
centers, e-mail intercepting  intelligence, bioinformatics, and technical libraries – tasks 
that the “assistance sector” of society often does not need, or not want, to undertake, or 
has  allied  organizations  (e.g.,  social  welfare  bureaucracies  and  insurance  companies) 
taking care of. Large international humanitarian and development NGOs may have begun 
to exploit related applications, such as in knowledge management, but I admittedly know 
little of this. 
15
http://en.wikipedia.org/wiki/Text_analytics
 
VB.NET Imaging - Generate Barcode Image in VB.NET
Barcode creator SDK to write & customize ISSN barcode generation in VB.NET imaging project. ITF-14 valid for scanner reading on any pages in a PDF or TIFF
add form fields to pdf online; add date to pdf form
C# TIFF: Create Linear and 2D Barcodes on TIFF Document Using C#
TIFF Barcodes Creation. This C# TIFF Barcode Creator Add-on the supported barcode types are listed in the following form. C# TIFF Micro PDF-417 Creating, C# TIFF
add fields to pdf; allow saving of pdf form
36 
There  are a  number  of open-source text analytic applications. The Natural  Language 
Processing Group at Sheffield  University,  United Kingdom, has developed “GATE – 
General Architecture for Text Engineering”
16
, which claims a large user community but 
comes with a modular structure that may confuse newcomers. RapidMiner Enterprise
17
offers a free community edition of its data mining software, but I have not been able to 
download the associated text analysis plug-in. AutoMap, a software developed by the 
Carnegie  Mellon  University,  Center  for  Computational  Analysis  of  Social  and 
Organizational Systems (CASOS)
18
(Carley 2009), has good text preparation tools (see 
Sidebar  below).  Tutorials  and  sponsorship  indicate  that  lately  it  has  been  enhanced 
chiefly for terrorist network detection. 
This is a fast moving field with which the documentation, public upgrades and reasonable 
effort  to  make  informed  selections  can  barely  keep  pace.  Without  an  education  in 
linguistics, even the statistically minded outsider can participate only up to a point. For 
the hurried consultant (and for the harried monitor), these applications seem too heavy 
and too solitary in their community. An exception could be made for situations in which 
network structures – physical, social and semantic – have to be investigated deeply. An 
example that comes to mind is Moore et al.’s  (2003) study of the Mozambique 2000 
flood response, assuming that the authors collected a considerable number of documents 
from the 65 NGOs in the network. 
[Sidebar:] Text preprocessing for effective analysis 
TextSTAT takes word forms as they come. The search string “empower”, for example, returns 
“empower”, “empowering”, and “empowerment”. Their instances must be inspected in a separate 
concordance for each form. This is not optimal in the search for concept prominence and for 
underlying meaning structures. As we have already seen in the Wordscores section, reducing 
words to their radicals, through an operation called stemming, may make for better and easier 
analysis. Stemming is one of several text preprocessing steps that natural language processing 
software such as AutoMap provides beyond the elementary  functionalities of  TextSTAT and 
Wordscores. A brief enumeration of these operations may give a first idea of the processes 
involved. I largely follow Leser (2008), with some additions from Carley (2009): 
•  Format conversion: The software may require conversion of all corpus documents into 
one particular format that it can read, such as .txt. 
•  Removal  of  special  characters  and/or  numbers:  This  facilitates  indexing  and 
searching. 
•  Conversion to lower case: Combines words that happen to be lower or title case by 
accident  of  sentence  position,  but  loses  abbreviations  and  makes  named  entity 
recognition more difficult. 
•  Stop  word  removal:  Frequent  words  whose  removal  does  not  normally  change 
document meaning in text analytics (it does in everyday language, including our normal 
reading!). The ten most frequent stop words in English are: the, of, and, to, a, in, that, is, 
was, it. Removing the top six (the, of, and, to, a, in) typically eliminates a fifth of the 
tokens. 
16
http://gate.ac.uk/index.html
17
http://rapid-i.com/component/option,com_frontpage/Itemid,1/lang,en/
18
http://www.casos.cs.cmu.edu/projects/automap/
. Updated in June 2009, after my initial trial. 
Create Thumbnail in Web Image Viewer | Online Tutorials
Go to the toolbar: Select "Thumbnail Creator" & activate RasterEdge OCR Engine; PDF Reading; Encode & Decode JBIG Twain Scanning; DICOM Reading; Form Recognition
android edit pdf forms; change font size pdf form
VB Imaging - Micro PDF 417 VB Barcode Generation
in a programming way. Following are the main features of this VB.NET Micro PDF 417 barcode creator SDK. The Barcode Creator Add-on
adding a text field to a pdf; adding images to pdf forms
37 
•  Named entity recognition: Proper names are very important for the naive understanding, 
but also for the latent meaning search in texts. Many consist of more than one token. The 
Lutheran World Federation is not some federation of all Lutheran worlds, whatever this 
could mean, but the worldwide federation of Lutheran churches. 
•  Speech tagging: Attaching to each word a tag of its supposed position / function within 
its sentence later helps with processing the text in “actor – organization – activities” and 
similar schemes. 
•  Anaphora resolution: In natural language, the meaning of most pronouns is made clear 
by grammar and context. “The LWF delegates passed two resolutions. They
discussed 
them again the following morning”, meaning “The delegates
discussed the resolutions 
again..”. In text analytics, this may need to be made explicit. 
•  Stemming: Reduces words to their base forms so that different word forms with the 
same meaning are collapsed. Often these are neither a standard word in the language 
(e.g., “theolog”), nor the exact linguistic root. 
•  Thesaurus creation: A set of fixed terms and relationships between them allows texts to 
be  organized  in  hierarchical  manner.  Thus  “group  liability”  may  be  part  of  “loan 
repayment”, but not of “technical support”. Both may be part of “microcredit”. 
To repeat, the intent is not to equip oneself for all these operations, but to acquire a sensibility for 
some of the ways in which modern text analytics deals with linguistic complexity. 
Qualitative research software 
Much of this paper has so far dealt with word lists or term lists. Common sense and 
linguistics, however, tell us that meaning resides in sentences rather than in words. In fact, 
it resides in word, sentence and wider context – in what preceded, and (if already known 
or anticipated) in what follows. 
The necessity to pay close attention to meaning structures is one of numerous reasons that 
have spawned an explosion of qualitative research, and more recently also of “mixed 
methods” approaches (the combined use of qualitative and quantitative methods). The 
methodological field is vast and growing (Denzin and Lincoln (2005) is one among many 
large handbook-type works) and does not concern us here except to point to the existence 
of text analysis applications specifically couched in qualitative research traditions. 
Apart from commercial packages, some of which have attracted a community of users of 
consequential size  and support  – leaders include “Atlas.ti” (Hwang 2008)  and “QDA 
Miner” (Lewis and Maas 2007) -, a few open-source applications are available (for links 
to some,  see  again Altman,  op.cit.). Notable for the  institutional prominence  of their 
sponsor, EZ-Text
19
and AnSWR
20
are two applications created within the US Center for 
Disease Control (CDC), primarily to support qualitative research with patients. 
Given scant experience with such applications, I limit my observations to two, regarding 
both text analytics and qualitative research:  
19
http://www.cdc.gov/hiv/topics/surveillance/resources/software/ez-text/index.htm
20
http://www.cdc.gov/hiv/topics/surveillance/resources/software/answr/index.htm
. I installed this software 
on a computer some years back, but found the documentation insufficient. The AnSWR Web page has not 
been modified after May 2007. 
38 
First, the learning curve is clearly much higher. Some of the research institutes or sellers 
behind such software organize training courses; typically these last a full week. As to 
freeware, more than  once  I found that  the documentation was outdated  (it taught an 
earlier version) or too abridged to guide self-learners through the initial hurdles. 
Second,  it  is  true  that  humanitarian  and  development  evaluation  ToR  occasionally 
demand  qualitative  approaches.  The  flash  word  for  these  kinds  of  expectations  is 
“triangulation”.  But one may  wonder whether the desk  officers  drafting the  ToR are 
conscious of the challenges that serious triangulation places on an evaluation team and its 
host organization. As far as the computer applications are concerned, some other factors 
conspire against their use in evaluations and similar assignments. Apart from rare and 
lucky partnerships with local academics already familiar with the particular program that 
the expatriate team member brings to the task, reliance on advanced software during team 
work may turn the user into a social and cognitive isolate.  
Discussing barriers to successful  mixed-method approaches, Bryman (2007) explicitly 
mentions  synchronization  issues:  “The  timelines  of  the  quantitative  and  qualitative 
components may be out of kilter so that one is completed sooner than the other” (ibd.: 
14).  Which  side  advances  faster  depends  also  on  institutional  barriers  to  acquiring 
documents speedily, say, for example, policy documents from capital city headquarters vs. 
spreadsheets from decentralized field monitoring units
21
. Bamberger et al. (op.cit.: 84) 
are generally pessimistic about the use of qualitative data analysis packages under time 
pressure: “they take a long time to set up and the purpose is usually to provide more 
comprehensive analysis rather than to save time.” 
This does not preclude that situations exist in evaluations and field research in which 
advanced  text  analytical  and  qualitative  research  software  significantly  enhances 
productivity. Davis, in a workshop  report  on panel surveys and  life history methods 
(Baulch  and  Scott  2006),  relates  the  use  of  such  a  program  for  the  subsequent 
categorization of life histories that he collected among the poor of Bangladesh (ibd.: 8). 
Yet, by and large, the decision to invest the time (and, for commercial products, money) 
in  learning  and  working  with  such  applications  must  be  weighted  by  the  individual 
researcher considering her personal situation. 
21
I have been embroiled in similar dilemmas myself. At one time, I was hired as the number cruncher in a 
politically sensitive review of a large UN humanitarian program (and creatively designated as “relief 
economist”). All the other researchers in the team were qualitative-leaning. Due to the accident of data 
acquisition, I was the only one with “showable output” by the time the team presented at a conference 
attended  by  openly  hostile  government  bureaucrats.  Predictably,  the  presentation  of  relief  goods 
transportation scenarios was singled out for contextual gaps. These were caused by the delay in working up 
historical and institutional aspects. Research software played a minor role in this to the extent that the 
political sensitivity obliged my fellow team members to reference hosts of slowly arriving documents in 
time-consuming watertight bibliographical annotations. 
39 
[Sidebar:] Food vendors and meaning structures 
Another young man in Dili, East Timor, let me take this picture of his pretty arrangement of 
clementines, exuding a tranquility free from all time pressures. Different from his age mates on 
the  title  page,  he  sells  an  article  unqualified  by  any  texts,  carefully  managed  with  a  local 
technology. 
Yet, tranquility is the exception, not the rule. Itinerant food vendors move almost continuously, 
rapidly commuting between places and hours that incline their customers to buy. The work is hard, 
competition stiff. The man bore two such clusters, dangling from a shoulder yoke. 
The picture does drive home a point in text analysis. Shaped by the physical properties of fruit 
and string, as well as by the man’s stamina, marketing savvy and personal preferences, the 
cluster behaves as an analog computer. We notice the hexagonal compaction; the position of 
every fruit can be described with just a few parameters of an almost perfect lattice. 
At the same time, this high degree of order conveys no knowledge whatsoever of the properties 
of other emergent levels. Seeing the cluster tells us nothing about whether these fruit have seeds, 
or how much money the vendor makes when he sells them. Similarly, the statistical structures 
that text analysis may detect say nothing about the ultimate meaning of a text as a whole, let 
alone of its pragmatic consequences. They do give us internal landmarks that facilitate the holistic 
quest. 
40 
Outlook: The dictatorship of time and the community of 
learners 
This paper made four basic assumptions: 
1.  Humanitarian and development workers at times work with voluminous, complex 
or otherwise difficult text documents. 
2.  Such situations may necessitate more than revision, ultimately prompting a new 
text that interprets those at hand. 
3.  Often this type of work needs to be done within tough time constraints. 
4.  Computer-assisted text analysis can make it more efficient. 
The temporal dimension is thus the leading one in this rationale. This can be questioned. 
The social  and substantive dimensions of  working with the  text  documents of relief 
agencies, social movement NGOs, the Red Cross, etc. may seem, in the minds of some, 
to hold more important directives. After all, what follows from the fact of life that time is 
always short? 
The social dimension covers the reliability of text analysis – would another consultant 
interpret the same texts differently? – as well as such other aspects as the impact of the 
digital  divide  on  collaborative  arrangements.  In  the  substantive  dimension,  there  are 
validity challenges. It is not unknown to find reports, some with far-reaching claims, in 
which “text analysis” is hardly more than a codeword for insufficient field exposure. And, 
do the constructs and metrics of text analysis actually prove anything beyond, or distinct 
from, what the original texts purport to convey? 
These are important questions, but I defend the “dictatorship of time” on two grounds: 
•  Any intelligent reading of texts is time-consuming. The discussion and synthesis, 
in working teams and then with principals, of the findings may take even more 
time. Devices that accelerate the initial processing of texts liberate time for later 
synthesis, debate and other important activities such as field visits. They help to 
redistribute the elements of learning processes while at the same time giving us a 
firmer handle on those texts of which we must take note. 
•  Second, besides the chronological and social time of the group that works with a 
shared set of texts, every participant lives his and her own biographic time. This 
includes the rhythms at which we replenish our professional and technical skills. 
You and I lose some skills inadvertently, shed obsolete ones deliberately, strive 
for some beneficial new ones, and remain ignorant of many others that would pay 
even  greater  dividends.  We  don’t  do  it  alone.  Yet,  the  windows  for  learning 
together, across social boundaries and divergent agendas, remain open for brief 
moments only. Alone I learn for years; this particular group together - maybe for 
one hour. If others are to use my tools, I need to arrange a rapid transfer. 
Documents you may be interested
Documents you may be interested