Cita inicial

“Lo contrario de hablar no es escuchar; lo contrario de hablar es esperar” (Fran Lebowitz).

22 julio 2018

ASCII, páginas de código, UTF…: la Babel digital (I)

Cuenta una leyenda que, hace mucho, mucho tiempo, una multitud de hombres se propuso construir en la llanura de Sinar una torre con la que podrían alcanzar el cielo. Gracias a que por aquel entonces todos los pueblos de la tierra hablaban la misma lengua, las obras avanzaban a buen ritmo. Pero entonces, la divinidad que todo lo ve, al advertir los progresos decidió que esas no eran maneras de conseguir la gloria, así que echando mano de sus superpoderes infundió lenguas distintas entre las cuadrillas de operarios para que no pudieran entenderse entre sí. Lo consiguió, por supuesto, y los hombres, derrotados, suspendieron las obras y se diseminaron por el mundo. A la torre se la llamó Babel, que en hebreo significa ‘confusión’:
Por esto fue llamado el nombre de ella Babel, porque allí confundió Jehová el lenguaje de los hombres, y desde allí los esparció sobre toda la faz de la tierra. (Génesis 11, 9)
Y en esas estamos hoy. ¿O no?…

Byte order mark Concept
© aihumnoi - Fotolia.com

 ¿Le ha sucedido alguna vez que al abrir el informe de un colega la pantalla se le ha llenado de símbolos extraños? ¿Que en algún mensaje de correo venía salpicado de rombos como �ste? ¿Qué la página web oriental aparece repleta de signos familiares pero como combinados por alguna mente demente?
Bueno, si lograba dominar el pánico, posiblemente advertiría una “lógica en el caos”: sí, ¡los signos raros parecían estar ocupando, usurpando, posiciones que correspondían a otros!; sí, a mayúsculas acentuadas, a las dos eñes…
Bingo. Estaba sobre la pista correcta. Y como probablemente a usted le gusta conocer por qué pasan las cosas, como a nosotros, nosotros en Bioedición hemos tirado de ese hilo y este es el ovillo…

Limitaciones iniciales: el código ASCII

Las computadoras son de ciencias. Por simplificar, digamos que cuando el usuario pulsa una tecla, la máquina busca en su tabla de conversión su código numérico correspondiente, que es el que en realidad maneja internamente cuando tiene que procesar la pulsación, bien sea para combinarla con otras o, si se trata de un carácter imprimible, para mostrarla en pantalla o enviarla a la impresora.

Tabla ASCII original.
Tabla ASCII original. (©Computer Desktop Encyclopedia 1988)


En los primeros tiempos de la microinformática, allá por 1985, las posibilidades de combinación de esa tabla, la tabla ASCII (American Standard Code for Information Interchange) estándar, estaban limitadas a 128.
¿Por qué esa cifra y no otra? En aquella época, en Estados Unidos se consideraba que siete bits serían suficientes (!), así que el octavo bit que completaría el byte u octeto, o bien se ponía a cero por la izquierda, o bien se reservaba para detección de errores en las máquinas que lo precisaran. Como cada bit solo puede tomar uno de dos únicos valores, 1 o 0 (o, mejor dicho, “activado” o “no activado”), tenemos 27 = 128 combinaciones posibles. Por poner un ejemplo, a la letra A mayúscula le correspondía la posición decimal 65, que en sistema binario de siete bits se codifica como [0]1000001.
Las primeras posiciones y la última se asignaron a respuestas del sistema, como el pitido del altavoz interno (007), y a teclas de acción como Enter (013), Esc (027) o Supr (127). La pulsación de la barra espaciadora (032), utilizada para separar palabras, se considera el primer carácter “imprimible” y, como cada letra necesita dos posiciones (mayúscula y minúscula), el número de grafemas representables se reducía considerablemente.
Como vemos, no quedaba espacio para caracteres propios de otras lenguas distintas del inglés. En el caso del español faltaban el par ñ/Ñ, las vocales acentuadas y los signos de apertura de interrogación (?) y exclamación (¡). No pocas veces, entidades oficiales españolas lucían en la cabecera de sus listados una enigmática barra invertida en lugar de la exiliada eñe, como en AGENCIA ESPA\OLA DEL ISBN. Y tampoco estaban los caracteres griegos, tan necesarios en disciplinas científicas como la física, las matemáticas elementales (· × ÷ ≠ ≥ ≈ π), la estadística o la medicina.

Un bit más: ASCII extendido y páginas de código

Pero a principios de los años noventa la capacidad de proceso del hardware avanzaba a un ritmo vertiginoso, tal como enunciaba la ley de Moore, y tanto los fabricantes de equipamiento original, de consolas o de dispositivos de comunicaciones como los desarrolladores de software, que no podían esperar más, echaron mano de ese octavo bit para cubrir las necesidades específicas de sus clientes europeos  (los españoles necesitábamos la ñ, los alemanes la ß, los nórdicos la å, los húngaros la ő…). El problema es que lo hicieron sin ponerse previamente de acuerdo entre sí, por lo que surgieron infinidad de «dialectos» del ASCII original.

Representación gráfica de la comunicación entre la CPU y la memoria.
Representación gráfica de la comunicación entre la CPU y la memoria. El envío y recepción de la información se efectúa en “lotes” (bytes) de ocho bits a través de un puerto de ocho pines, o contactos. Los unos y los ceros simbolizan circuito abierto o circuito cerrado.


El mismo IBM, el gigante informático que en 1981 había presentado el Personal Computer (PC), junto con Microsoft, el entonces pequeño proveedor de sistemas operativos que suministraba el MS-DOS, llamó a esos dialectos páginas de códigos, y añadió a la de Estados Unidos (la 437) otras para los distintos idiomas indoeuropeos (737 y 869 para el griego, 857 para el turco, 860 para el portugués, 863 para el francés, etc.) y una genérica para Europa occidental (la 850); esta última sustituía algunos símbolos gráficos de la primera por vocales acentuadas, pero a su vez «perdía» algunas letras griegas importantes y algunos signos como «mayor o igual que» y «menor o igual que».
Sin embargo, en los noventa Microsoft se independizó de IBM e introdujo ligeras variaciones en la páginas de códigos europeas. Además, creó para el incipiente entorno operativo Windows otra serie nueva que incluía entre otras la Windows-1252. Pero poco después la propia Microsoft desaconsejó el uso de páginas de códigos, si bien las nuevas aplicaciones debían saber interpretarlas para manejar archivos digitales antiguos.
Resumiendo: la tarea era (y es) compleja por diversas razones:
  • Los programas necesitaban saber de qué página echar mano para poder mostrar correctamente el contenido de los archivos; si no acertaban, lo que aparecía en pantalla era un galimatías conocido como mojibake.
  • La página usada en una máquina podía ser distinta de la empleada en otra, con el resultado de que esta es incapaz de descifrar los caracteres del documento.
  • A menudo, los datos no se etiquetaban debidamente en origen, lo que dificultaba enormemente su lectura correcta en otro equipo.
  • Las páginas de Microsoft difieren en diverso grado de algunos estándares y de las distintas implementaciones de otros suministradores.
  • El sistema de páginas de código limitaba el conjunto de caracteres disponibles.
  • Los caracteres expresados en una codificación no conocida por la computadora de destino podían ser convertidos por esta en signos de interrogación, en otros símbolos o en una versión simplificada de aquellos (por ejemplo, letras que pierden la tilde); otras veces, directamente se ignoraban.

Un caso extremo: una versión de navegador, presumiblemente obsoleta o indebidamente configurada, está descodificando como Windows-1252 una página web desarrollada en UTF-8 (Unicode): se trata, precisamente, del artículo «Mojibake» ('escritura deforme') de la Wikipedia japonesa.


El resultado, como muchos recordaremos, fue la Babel digital. El mismo sistema operativo, la misma aplicación y el mismo formato de archivo del documento original no siempre eran garantía de resultados predecibles al ser procesado este en otra máquina; de hecho, con demasiada frecuencia, en las editoriales abríamos el disquete de 3,5 pulgadas que acabábamos de recibir (por correo postal, claro) del autor y la pantalla se nos poblaba de un batiburrillo indescifrable de caracteres reconocibles junto a signos imposibles. Entonces, no nos quedaba otra que recurrir al filtrado de esos archivos a través de aplicaciones intermedias o echar mano de nuestro forzosamente nutrido arsenal de utilidades de conversión. Y claro, cómo no, el proceso distaba de ser perfecto.

El alfabeto de un millón de letras: Unicode

Así pues, los ocho bits venían a solucionar las necesidades de muchos idiomas, pero no bastaban ni de lejos para que pudieran comunicarse entre sí de manera eficiente.
Logotipo del proyecto Unicode, del Unicode ConsortiumTodo cambió con la llegada de Unicode. Unicode, más que una tabla más, es un conjunto de directrices técnicas, aprobadas por un consorcio independiente y dirigidas a desarrolladores de software, para garantizar el procesamiento, almacenamiento e intercambio uniforme de la información.
Pero también es, de cara al usuario una tabla: la tabla. Como, a día de hoy (año 2013 de nuestra era), las capacidades del hardware y la nanotecnología permiten afrontar sin problemas las exigencias del software de consumo, el consorcio ha podido diseñar una base de datos virtualmente ilimitada. La Unicode Character Database (UCD), que así se llama, está organizada en grandes grupos llamadas planos, que a su vez se dividen en áreas y, estas, en bloques. Ahora bien, estos bloques ya no albergan directamente equivalencias numéricas de dibujos de letras (o «glifos»), sino códigos correspondientes a grafemas y pseudografemas que luego cada aplicación de escritorio (PowerPoint, Word, Corel, iTunes, etc.) o de procesamiento en línea (Gmail, Wikipedia, Youtube… o PubMed) se encarga de “dibujar” a su manera.
Si bien, por razones de compatibilidad, se recogen algunas páginas de código de la era ASCII como el primitivo ASCII7, ISO 8859-1 o Windows-1252, con Unicode ya no es necesario que la codificación del texto coincida con la de la fuente empleada ni que haya que alternar entre múltiples tablas, con lo que se evitan daños (corruption) en los datos. El sistema es capaz de almacenar e integrar en un solo conjunto sistemas de escritura modernos como árabe, braille, copto, cirílico, griego, han (kanji, hanja y hanzi), japonés (kanji, hiragana y katakana), hebreo y latino; escrituras históricas extintas que se han recuperado con propósitos académicos: cuneiforme, griego antiguo, lineal B micénico, fenicio y rúnico; símbolos científicos, y una gran variedad de signos tipográficos, de solfeo, divisas, flechas, pictogramas, ideogramas, señalética diversa y un largo etcétera.
Un efecto secundario más obvio es el que podemos sufrir a la hora de recuperar esa información para un propósito puntual, es decir, a la hora de encontrar ese símbolo peculiar que estamos buscando para insertarlo en nuestro escrito, sobre todo —claro está— si es muy peculiar. Para ayudarnos en la tarea, el propio consorcio ha dividido el repertorio disponible en una serie bastante exhaustiva de subtablas, o «mapas» (charts) agrupados a su vez en dos grandes bloques: lenguajes o sistemas de escritura (scripts) por un lado y símbolos por otro. El listado y los PDF pueden consultarse o descargarse en la sección Unicode 6.2 Character Code Charts. dentro de www.unicode.org.

Gráfico que recrea en perspectiva un listado parcial de 'scripts' y símbolos recogidos por Unicode.
Gráfico en perspectiva que recrea un listado parcial de 'scripts' y símbolos recogidos por Unicode.

¿Y después…?

El límite teórico de espacio para códigos alcanza las 2.097.152 (221) combinaciones posibles, si bien en la práctica se restringen a 1.114.112 (220 + 216), de las que hasta ahora (versión 6.1) “solo” se han utilizado 110.181. Para almacenar, direccionar en memoria y recuperar los códigos, los programadores pueden utilizar diversos formatos —¡no incompatibles esta vez!—, llamados Unicode Transformation Format: UTF-8, UTF-16 o UTF-32.
¿Se quedará pequeño alguna vez este sistema? Creemos que no, que esta vez no; que Unicode ha venido para quedarse. Adoptado por los principales fabricantes de hardware de comunicaciones, por los diseñadores de entornos (frameworks) de programación, por los gigantes tecnológicos como Google, Microsoft, Apple, Adobe, IBM y, por supuesto, por la Free Software Foundation, este protocolo de codificación tiene todas las papeletas para constituirse en el estándar universal —si no lo es ya— para el procesamiento computarizado de texto. Y lo bueno es que por razones conceptuales ya no crecerá más: no se le asignarán más bits, es decir, no habrá más posibilidades de combinación (se hace difícil llegar a imaginar que se llegara a plantear tal necesidad); por tanto, a medida que, como es de esperar, se vaya renovando el parque de ordenadores, cada vez más nodos de la red se irán sumando al estándar y la compatibilidad será mayor. El tiempo, en este caso, corre a nuestro favor.
Así pues, y volviendo a la cita bíblica del principio, ¿estará el hombre dando sus primeros pasos hacia un lenguaje universal? ¿Estará iniciando el regreso a Babel?

13 julio 2018

Bienvenidos (2.ª parte)

Bienvenidos al sitio web de Post Scriptum (antes BioEdición). A través de este blog queremos compartir recursos, técnicas y recomendaciones que pueden ser de utilidad a todos aquellos interesados de un modo u otro con la publicación biomédica.
Caricatura de Aldous Huxley
Caricatura de Aldous Huxley (Wikimedia Commons)

Nos dirigimos en primer lugar a los especialistas de cualquier área que intervienen como autores, bien a título individual o bien en representación de un equipo, sociedad médica o laboratorio; y, también, a todos los que trabajan “a este lado” de la cocina editorial: traductores, redactores, revisores, editores de mesa, correctores, maquetadores, etc. Nuestro fin primordial es que todos los agentes que intervienen en los procesos editoriales trabajen de la forma más coordinada posible para evitar o minimizar errores, pasos atrás, retrasos, etc.
Sin embargo, no es la intención de esta bitácora erigirse en “púlpito” desde el que impartir “homilías”; no, de ninguna manera: lo poco o lo mucho que sabemos se lo debemos a nuestra propia experiencia y a lo que de otros hemos aprendido; lo que uno sabe es siempre infinitamente más diminuto que lo que ignora, así que todo comentario que complete, matice o corrija la información expuesta aquí será bienvenido y agradecido.

Como colofón de esta temprana entrada, nos permitimos evocar aquí un pensamiento del escritor y pensador Aldous Huxley:
Se ha avanzado tanto en el conocimiento de las enfermedades, que ya es casi imposible encontrar a alguien que esté completamente sano.
Del mismo modo que los médicos tratan pacientes, nosotros los editores tratamos los textos de los médicos…; y sí, a nosotros nos pasa un poco como a estos: cuanto más sabemos de sintaxis, más nos cuesta encontrar frases sintácticamente impecables.

El equipo de Post Scriptum

Errata letal

Ya lo dejó dicho Mark Twain: «Be careful about reading health books. You may die of a misprint». Si quiero traducir mecánicamente al español la advertencia del escritor estadounidense, puedo leer en mi mente algo así como «Tenga cuidado cuando lea libros de medicina; podría morir por una errata».
Sin llegar a la posibilidad de un desenlace tan luctuoso, sí me gustaría concienciar a todos los que participan en la publicación biomédica sobre los peligros de una redacción descuidada en cualquier escrito relacionado con la salud de las personas. No ya por el peligro de muerte (que también), sino por el riesgo de que un hallazgo potencialmente interesante para la comunidad científica y para la sociedad naufrague antes de zarpar.
En un próximo artículo hablaré de un caso que trajo de cabeza a cierto director editorial y su laboratorio cliente: ¿aquello había sido intento de envenenamiento o simple descuido?
Continuará...

04 febrero 2013

Migración en curso


Buf, qué silencio tan largo, ¿verdad? Bueno, durante este tiempo me han pasado un montón de cosas, y una de las víctimas más sentidas de toda la vorágine ha sido esta bitácora, snif.

Una de esas cosas ha sido la puesta en marcha de un proyecto profesional nuevo. Sí, amigos. Estrenamos dominio, alojamiento web y plataforma blogueril. En cuanto al logotipo, se encuentra en estos momentos en fase de diseño, aunque el concepto lo tenemos ya bastante perfilado. El nuevo sitio incorpora los artículos de Post scriptum, y a ellos se irán añadiendo las nuevas entradas, que ojalá os sean de utilidad.


Esperamos que os deis una vuelta por allí de vez en cuando. Eso sí, no os asustéis: como estamos aún en fase de obras, es posible que en alguna ocasión algo no falle, je, je... Pero sois gente de bien, así que sabréis perdonar.




12 julio 2011

Próxima publicación del 'Diccionario de Términos Médicos'

Este otoño está previsto que llegue a las librerías españolas y latinoamericanas el Diccionario de Términos Médicos, de la Real Academia Nacional de Medicina (RANM). La obra, que aspira a convertirse en la gran obra de referencia en la lexicografía médica en lengua española (Boletín núm. 7 de la RANM, p. 23), se dirige, como es de suponer, a:
  • profesionales biomédicos y estudiantes de ciencias de la salud
  • especialistas de otros campos afines, como psicólogos, biólogos o químicos
  • expertos en comunicación científica, redactores, traductores, periodistas, técnicos editoriales, correctores, etc.
Operación de normalización ortográfica en un procesador de textos típico (Microsof Word v. X para Mac).


Los datos

El ambicioso proyecto, que echó a andar el 20 de enero de 1998, cuenta con el patrocinio de la Fundación Mutua Madrileña y con la colaboración de la Fundación Ramón Areces. El director académico es el profesor Hipólito Durán, mientras que la coordinación técnica corre a cargo de Fernando A. Navarro. El proceso de producción editorial en papel se ha encomendado a la editorial Panamericana, a la vez que desde la Academia se trabaja en el desarrollo de plataformas de difusión electrónica.

A pesar de su nombre, no se trata solo de un diccionario terminológico convencional, sino que, además de normalizar, pretende aglutinar y sistematizar todo lo relativo al lenguaje de la medicina en su sentido más amplio. En ese sentido, incluirá:
  • sinónimos
  • correspondencias terminológicas
  • equivalentes en inglés
  • observaciones lingüísticas y técnicas
  • advertencias sobre usos incorrectos
  • notas sobre pronunciación o escritura
Además, no se detiene en los nombres comunes, sino que «incorpora entradas antroponímicas sobre ilustres médicos, científicos, investigadores, pacientes y figuras históricas o literarias que han contribuido a configurar el lenguaje de la medicina» a lo largo de su historia.

La opinión

Sin ánimo de subestimar a nadie, lo mejor para mí es la presencia de Fernando Navarro en el equipo técnico. Su Diccionario crítico de dudas es a día de hoy el vademécum del traductor médico.


Los médicos tratan a pacientes, y los redactores y correctores tratamos los textos de los médicos. Para nosotros es importante toda iniciativa que tienda a poner un poquito de orden en este desbarajuste de barbarismos morfológicos, préstamos gramaticales, calcos léxicos y sintácticos, falsos amigos, anacolutos aberrantes y gerundios indigestos, etc., etc.; y es importante por tres razones:
  1. arrojará luz en nuestro quehacer diario
  2. servirá de autoridad de referencia ante autores reticentes
  3. ayudará a establecer dónde termina la globalización del conocimiento y dónde empieza la ignorancia, la adoración palurda al señorito inglés o, simplemente, la pereza.
A ver qué tal…

12 octubre 2010

La producción editorial. Definición

La producción editorial puede entenderse como el conjunto de procedimientos normalizados sucesivos que permiten convertir el manuscrito de un autor en un prototipo capaz de generar copias impresas.

Hoja manuscrita de 'Madame Bovary'.

Antes de entrar en la editorial, el contenido habrá sido sometido por el autor a un intenso proceso de enmiendas, alteraciones, adiciones, supresiones y cambios de lugar conocido con el nombre de escritura. Con este proceso se pretende organizar y plasmar por escrito la información que se desea transmitir, es decir, el mensaje.

Una vez terminada esta fase, los documentos y materiales complementarios que componen el manuscrito cambian de manos. Lo que para él constituye (desde el punto de vista de la creación) un punto final representa para los técnicos editoriales el punto de partida; por eso lo llaman original. Editores y correctores, como conocedores expertos de las claves lingüísticas y de las convenciones gráficas, y sin entrar en la veracidad de las ideas vertidas, depuran el código para que la comunicación con el destinatario final sea óptima. El objetivo último es que el lector descifre cabalmente y en la primera lectura la intención del escritor, y para lograrlo es fundamental:

  1. eliminar el “ruido” (RAE, 5) que, generado durante la escritura, entorpece la lectura; y
  2. depurar el mensaje original para dotarlo de unidad, coherencia, rigor y eficacia expresiva.

Tal vez el término 'producción' induzca a confusión. En rigor, su cometido no es producir algo nuevo, no es crear, sino más bien adaptar a unos protocolos preestablecidos unos contenidos ya creados. Esa tarea de adaptación incluye estructurar, unificar, normalizar, corregir y componer.

Si entendemos la edición en su sentido más amplio como una "traducción" de las convenciones de la escritura a las convenciones del lenguaje escrito para publicación, unas sencillas y sabias palabras de Valentín García Yebra aparecidas en su libro Experiencias de un traductor (2006) cobran un valor incalculable para nosotros los editores. El académico y maestro de traductores apuntaba allí que «la regla de oro para toda traducción es […] decir todo lo que diga el original, no decir nada que el original no diga, y decirlo todo con la corrección y naturalidad que permita la lengua hacia la que se traduce».

25 junio 2010

Transcripción y traducción de "L'oeil du correcteur"

La agencia francesa de corrección CorrectMot dio a conocer en enero de este año un estudio de seguimiento ocular (eye tracking) aplicado a la corrección de textos. La intención del experimento era comparar mediante una prueba de revisión los diferentes resultados en cuanto a eficacia entre un corrector profesional, con formación específica para esa función editorial, y un periodista, también experto en comunicación escrita como el primero pero sin especialización en la enmienda de textos ajenos.

El estudio había sido encargado a la empresa Miratech, especializada en el análisis cognitivo del internauta y sus movimientos oculares ante la pantalla, y se plasmó en un revelador vídeo (2’42’’) que demuestra la necesidad de aplicar una estrategia metódica de lectura para tratar de detectar errores de la escritura.


La experiencia me ha parecido tan esclarecedora que me he tomado la molestia de transcribir la narración y traducirla para que pueda llegar a más gente. He incluido el minutado por si alguien se anima o subtitularlo o doblarlo.


1. Transcripción

L'oeil du correcteur. Étude comparative de deux approches de la correction d'un texte réalisée par ‘eyetracking’

[0:00] Le document que vous allez découvrir a été réalisé par un cabinet specialisé dans les études par ‘eye tracking’. La technique du ‘eye tracking’ permet d'enregistrer la position et le mouvement des yeux sur un document.
Nous allons vous présenter des séquences enregistrées du regard de deux personnes procédant a la correction d'un texte ayant les mêmmes fautes, sur le logiciel Word. Les cercles de couleur bleu indiquent la position du regard. Son diamètre augmente selon la durée de la fixation oculaire. Des segments bleus indiquent les multiples saccades des yeux entre deux fixations.

[0:32] Cette première vidéo réproduit la séquence de correction de Christine, spécialiste en communication écrite, mais non profesionnelle de la correction. Vous pouvez constater que les mouvements des cercles bleus sont nombreux et se succèdent très rapidement. Le regard de Christine balait le texte comme le ferait tout lecteur ordinaire qui ait pour consigne d'encorriger les fautes. Moins d'un mot sur deux aura fait l'object d'une fixation. Christine n'aura relevé aucune faute durant sa première lecture.
[0:59] Nous voici dans la deuxième lecture. Ici encore des nombreux mots ne sont pas fixés. Il est important de savoir qu'entre deux fixations l'oeil est aveugle et ne peux donc dessoler les fautes. Bien que spécialiste en communication écrite, et malgré trois lectures de ce texte, Christine n'aura pas été en mesure d'encorriger l'ensemble des fautes. La grande connaissance de Christine pour les règles de notre langue est insuffisante pour assurer la correction parfaite d'un texte.

[1:25] Voici l'enregistrement de la séquence de correction de Clarisse, correctrice professionelle chez CorrectMot. Notez tout d'abord la précision du mouvement du regard: les saccades sont régulières, totalement contrôlées par une concentration immediatément mobilisée. Les fixations de Clarisse sont très longues, presque deux fois plus que celles de Christine: elle revèle l'attention porté à chaque mot, à chaque signe. Clarisse corrigera l'ensemble des fautes du texte dès le première passage; une seconde et dernière lecture servira de contrôle.
[1:54] En plus d'une parfaite maîtrisse des règles de l'ortographe, de la grammaire et du code tipographique de notre langue, la correction professionnelle réclame un effort d'attention, de concentration et de rigueur exigeant d'être mobilisées sur des textes parfois très longs.

[2:10] Pour conclure, voice le schéma visuel retraçant l'ensemble des fixations de Christine lors de sa première lecture: les points de fixation sont claires sommets et laissent apparaître les nombreux mots qui ont echappés a sa vigilance. En comparaison, le schéma visuel de Clarisse et dense et complet: aucun mot, aucun signe n'a été negligé.

[2:30] La correction professionnelle est un métier qui demande un oeil exercé, rigoureux et métodique.