Introducción
En muchas y diversas ocasiones el ambiente nos exige atender a dos o más situaciones de manera simultánea (conducir estando atentos de la conducción con todo lo que conlleva y charlar al mismo tiempo), y el sujeto debe intentar atender a todo de manera eficaz: A ESTO SE REFIERE LA ATENCIÓN DIVIDIDA.
En estos casos no hay distractores ni preferencias atencionales por los estímulos que se presentan.
Definición y concepto de Atención Dividida
La atención dividida es la actividad mediante la cual se ponen en marcha los mecanismos que el organismo utiliza para dar respuesta ante las múltiples demandas del ambiente y atender a todo lo que se pueda al mismo tiempo.
El énfasis de las investigaciones sobre la atención dividida ha recaído en las posibles respuestas que el organismo ha de emitir simultáneamente. La atención dividida tiene que desarrollar unas estrategias que le hagan actuar de forma eficaz:
- a) A veces podemos conseguir que nuestra atención oscile rápida e intermitentemente (se desplace de una información o tarea a otra). Estos desplazamientos de la atención se producen en aquellos casos en que tenemos que atender a 2 o más cosas de la misma modalidad sensorial (escuchar 2 conversaciones).
- b) Cuando nuestra atención no se desplaza u oscila, entonces se distribuye el organismo cuenta con una serie de recursos atencionales que se distribuyen según las demandas exigidas en un momento determinado.
- c) La práctica favorece que las 2 estrategias se lleven a cabo con mayor eficacia, gracias a la práctica podemos mejorar la rapidez de los oscilamientos de la atención. En la medida en que se practica una actividad, la cantidad de recursos que consume es menos, aunque la tarea sea difícil.
Líneas de Investigación
2 grandes planteamientos en torno al tema de la atención dividida:
I. ¿Cuántas cosas somos capcer de atender al mismo tiempo?
Nos estamos refiriendo a la amplitud de la atención.
Jevons (1871) hizo un trabajo sistemático sobre el tema, en el que intentaba analizar la capacidad del sujeto para aprehender simultáneamente varios objetos. Presentaba en una exposición muy breve de tiempo una serie de objetos simples, y el sujeto tenía que estimar el número de objetos que habían aparecido. A lo largo de la prueba, modificaba el número de estímulos. Observó que cuando el número de estímulos era más pequeño, la estimación era casi siempre correcta; pero cuando el número de estímulos era más grande, los errores también aumentaban. El promedio de estímulos atendidos fue de 8.
Sperling (1960) observó que si el sujeto es expuesto a un amplio listado de ítems (por ejemplo, 12 ítems) durante una presentación de tiempo muy breve (por ejemplo 250 milisegundos) los sujetos sólo eran capaces de recordar 4 o 5 ítems. Sperling concluyó que o bien el sujeto no era capaz de visualizar el conjunto total de los ítems presentados o bien era incapaz de recordarlos. Para saber cuál de las 2 opciones era la correcta, utilizó la técnica de informe parcialpresentó 12 consonantes distribuidas en una matriz de 3 filas por 4 columnas durante 50 milisegundos (tiempo justo para poder ejecutar una única fijación ocular), y cada exposición era seguida de una señal auditiva de distintas frecuencias.
La tarea del sujeto era recordar las letras que componían una de las filas, según el tono auditivo que se presentase tras la información visual. Los resultados de esta técnica mostraron que el sujeto era capaz de informar, al menos, de 3 de las 4 letras que componían cada fila. CONCLUSIÓN: Teniendo en cuenta que el sujeto no sabe previamente cuál es la fila que debe informar, se supone que podrá reproducir cualquiera de las 3 filas, y si el sujeto es capaz de acertar 3 ítems de una fila de 4, el número total de letras disponibles en su sistema cognitivo es de 9 (cantidad mayor que si empleamos la técnica de informe total). Sperling también concluyó que cuando el tiempo transcurrido entre la presentación visual de la matriz y la presentación del tono auditivo era superior a los 250-300 milisegundos, el rendimiento del sujeto se deterioraba notablemente.
Sperling concluyó: a) Nuestro sistema de memoria es capaz de contener una cantidad de información superior a la que en principio el sujeto es capaz de informar, b) Este sistema de memoria mantiene la información durante un período de tiempo muy breve, al cabo del cual decae (memoria sensorialmemoria de duración tan breve).
Broadbent (1954), por lo que respecta a la atención auditiva (uno de los estudios más conocidos sobre la amplitud de la atención), utilizó la técnica de amplitud dividida. Utilizó 3 grupos de sujetos a los que les presentaba 3 pares de dígitos en ambos oídos. Los resultados mostraban que los sujetos eran capaces de recordar al menos el 95% de los dígitos. También se demostró que los sujetos tendían a recordar primero los dígitos de un canal auditivo y después los del otro, y no organizaban la información en función del orden de presentación.
El estudio de la amplitud dividida no cuenta con un grupo compacto de trabajos que den lugar a un gran campo de investigación en torno a este tema. Las razones son diversas, y nosotros vamos a aludir a dos en concreto:
- Los estudios de Sperling dieron lugar a todo un cuerpo de investigaciones que se centraron en torno al concepto de memoria sensorial y las características de ésta. Y una vez que se asumió que ésta era de capacidad ilimitada, no hubo mayor interés por analizar bajo qué condiciones la amplitud de la memoria podía aumentar o disminuir utilizando la técnica de informe parcial.
En cuanto al estudio de la atención auditiva, el objetivo de los estudios de Broadbent incluía el análisis de la amplitud de la atención. Pero el objetivo básico de este autor era elaborar un modelo general sobre el funcionamiento de la atención selectiva, y su interés se centro más en averiguar la naturaleza del filtro y el lugar donde este actúa y no tanto en conocer el ámbito de la atención.
Concluyendo este apartado, el tema de la amplitud de la atención ha sido importante dentro de la atención dividida, pero no ha sido el que mayor cuerpo teórico y empírico ha desarrollado.
II. ¿Hacia dónde se han dirigido, entonces, las investigaciones en torno a la atención dividida?
Se han dirigido a analizar los déficit que se producen como consecuencia del procesamiento múltiple de información o la ejecución simultánea de tareas diversas.
El fenómeno de interferencia
Nuestra capacidad para atender simultáneamente tiene unos límites.
El organismo se caracteriza por tener una capacidad limitada a la hora de procesar la información. Cuando el sujeto no es capaz de atender simultáneamente a las múltiples demandas del ambiente, el fenómeno más típico que suele producirse es el conocido con el nombre de interferencia. Tradicionalmente se establece una distinción entre dos tipos de interferencia: la interferencia estructural o específica, y la interferencia inespecífica.
- La interferencia estructural/específica tiene lugar cuando una determinada situación demanda: o bien procesos que por sus características comparten ciertas estructuras cognitivas o bien procesos u operaciones que, aun no compartiendo las mismas estructuras, solo pueden funcionar de forma serial.
- Por su parte, la interferencia inespecífica hace referencia a la existencia de recursos energéticos comunes a dos o más tareas, de tal manera que cuando dos tareas consumen los mismos recursos interferirán entre ellas.
Modelos teóricos
El origen del estudio del fenómeno de interferencia reside en las limitaciones que tenemos para atender a muchas cosas a la vez. ¿Por qué se producen estos límites? ¿Cómo intenta resolver el sujeto las situaciones de interferencia? La cuestión básica que se plantean los distintos modelos a la hora de explicar los mecanismos de la atención es la siguiente: ¿alternamos la atención, o somos capaces de dividirla? Ahora analizaremos las respuestas teóricas dadas por cada uno de estos grupos de modelos.
A) MODELOS ESTRUCTURALES
Este tipo de modelos postulan que:
Las limitaciones atencionales se deben a la existencia de mecanismos, estructuras o procesadores en el sistema cognitivo humano que, por su propia naturaleza, son incapaces de tratar con más de un input a la vez.
La interferencia es consecuencia de las demandas simultáneas de un mismo proceso o estructura cognitiva. A nivel de entrada de información las estructuras de procesamiento compiten entre sí: el filtro selectivo permite operar con parte de la información y prohíbe la entrada de otro tipo de operaciones. A nivel de respuesta, cuando el sujeto ha de llevar a coba dos o más tareas, la interferencia tiene lugar porque las tareas compiten por un mecanismo común.
En estas situaciones de interferencia, el papel de la atención es provocar una alternancia los más rápida posible, o bien de una información a otra, o de una tarea a otra.
Los modelos estructurales primitivos son los de Broadbent y Welford. De Broadbent únicamente volveremos a recordar que el filtro solo procesa la información serialmente y que tiene un funcionamiento dicotómico.
Por su parte Welford llevó a cabo un estudio donde presentaba dos estímulos en rápida sucesión temporal, y la tarea del sujeto era responder a ambos. Si ambas tareas precisan la intervención de un mecanismo o estructura central que actúa como cuello de botella, entonces cuando el segundo estímulo llegue al supuesto cuello de botella y el mecanismo está ocupado por el primero, deberá esperar a que quede desocupado para ingresar en el mismo.
Welford postulo así la existencia de un periodo refractario psicológico durante el cual no podía operar ningún proceso mental puesto que el sistema cognitivo se hallaba procesando aun un estimulo previamente presentado
Tanto el modelo de Welford como el de Broadbent se conocen con el nombre de modelos estructurales de canal único, puesto que ambos postulan la idea de un procesador central general que solo puede transmitir la información serialmente. Posteriormente han surgido otros modelos estructurales que afirman que existen varios canales especializados en ámbitos distintos del procesamiento, han recibido el nombre de modelos multiprocesadores. Para estos modelos, las situaciones de tareas dobles en las que no se produce interferencia se explican porque las tareas usan procesadores distintos.
B) MODELOS DE CAPACIDAD
Los modelos estructurales fueron considerados como insuficientes para explicar el fenómeno de interferencia. En la década de los 70 surgen los modelos de capacidad, los supuestos básicos más importantes de los cuales son los siguientes:
El sistema cognitivo posee una serie de recursos atencionales que se hallan distribuidos entre las diversas operaciones o tareas concurrentes que el sujeto ha de realizar en un momento dado.
Cuando las diversas operaciones mentales o tareas simultáneas demandan poca atención, su ejecución puede llevarse a cabo sin que se produzca apenas deterioro en la realización de ninguna de ellas.
La interferencia que se produce en la realización simultánea de dos tareas puede deberse a que se produce una interferencia estructural porque ambas tareas precisan el uso de los mismos mecanismos o estructuras de procesamiento. Sin embargo, para la mayor parte de estos modelos, la interferencia se produce porque la cantidad de demandas exigidas para realizar las dos tareas es superior a la cantidad de recursos de que dispone el sujeto.
Una cuestión importante que se plantean estos modelos es cómo se distribuyen los recursos. Este tema, conocido con el nombre de política de distribución de recursos atencionales se refiere a la forma en que un organismo es capaz de dividir sus recursos atencionales. Las respuestas han sido dos: a) que los recursos se reparten de una forma inespecífica a todas aquellas tareas o situaciones que demanden dichos recursos ; b) que no existe una única reserva de recursos, sino distintas reservas especificas, cada una de las cuales se utiliza en mayor o menos medida, dependiendo de las demandas de las tareas.
Estas dos formas de respuesta han dado lugar a dos tipos de modelos de recursos:
Los modelos de capacidad general o de recursos inespecíficos, para los que la atención se concibe como un pool de recursos limitados que se suministran a las distintas actividades para que éstas puedan ser ejecutadas. Para estos modelos, la ejecución en tareas múltiples no se deteriora cuando los recursos (inespecíficos) disponibles cubren las demandas de la situación, y, en consecuencia, la interferencia se explica como una demanda excesiva de recursos.
Los modelos de capacidades múltiples o de recursos específicos que postulan que el sistema de procesamiento se divide en varios subsistemas especializados o depósitos de recursos y defienden la existencia de unos recursos múltiples que se pueden asignar a diversas tareas. Para estos modelos, la interferencia entre 2 o más tareas se produce porque éstas comparten los mismos tipos de recursos y entonces se produce una saturación de algunas de las capacidades o subsistemas especializados.
Explicaciones dadas a una situación de interferencia.
Actualmente, la mayoría de modelos (estructurales o de capacidad) se alejan de planteamientos dicotómicos y tienden a utilizar ambas ideas en sus explicaciones.
Consideraciones últimas
Debemos indicar que, desde un punto de vista metodológico, las investigaciones que han estudiado el fenómeno de interferencia han planteado situaciones en las que por supuesto el sujeto ha de atender a varias cosas a la vez.
A nivel de análisis de la información, las investigaciones se han centrado en provocar una situación de procesamiento múltiple de información. La mayor parte de estos estudios han trabajado dentro del campo de la atención espacial y del paradigma de la búsqueda visual, y las evidencias más importantes obtenidas en dichos estudios son las siguientes:
- La observación general es que, bajo ciertas condiciones, los recursos del sistema atencional parecen distribuirse sobre el campo visual y llevar a cabo un procesamiento paralelo o simultáneo de los estímulos que están en dicho campo.
- En otras ocasiones se producen intercambios de procesamiento. El concepto de intercambio lleva implícita la idea de que es muy difícil llevar a cabo un procesamiento simultáneo de todas las fuentes de información, y por tanto se hace necesario priorizar el procesamiento de algunas fuentes en detrimento de un procesamiento más pobre para los restantes.Ahora bien, el paradigma experimental más conocido en el estudio de la atención dividida ha sido el paradigma de la doble tarea.
La Doble Tarea
Este paradigma comenzó a usarse a finales del siglo XIX en el contexto de la atención. Paulhan determinó que a menudo había una ganancia considerable de tiempo cuando dos tareas se hacían simultáneamente, también determinó que el desdoblamiento de la mente para tales tipos de tareas era mucho más fácil cuando las operaciones que se tenían que realizar eran fáciles y heterogéneas. La explicación era que se producía una oscilación muy rápida de la atención.
Sin embargo, James supuso que el sujeto, como consecuencia de la práctica, podía generar un automatismo por el cual no se precisa prestar tanta atención y no exista tal oscilación. Es con el surgimiento de la psicología cognitiva cuando el paradigma de la doble tarea va a cobrar importancia en el estudio de la atención y de la automaticidad. Una de las primeras fue la teoría o modelo atencional de canal único de Broadbent y Welford, por lo que el paradigma de doble tarea se explica como una alternancia en la ejecución de las tareas.
Los modelos atencionales de recursos han dado su propia explicación sobre el paradigma de doble tarea: si dos tareas no superan los recursos disponibles se pueden ejecutar simultáneamente y sin dificultad.
Los modelos de automaticidad explican las situaciones de doble tarea de la manera siguiente: siempre que no se observe un claro deterioro en una de las tareas se considera que la menos una de ellas es automática.
El tema de la asignación de recursos
Uno de los temas más importantes de las investigaciones en este campo ha sido analizar cómo operativizar la asignación de recursos. Para ello se ha intentado, principalmente, delimitar las variables implicadas en este tipo de circunstancias. Desde este punto de vista, las variables consideradas con mayor frecuencia en las situaciones de interferencia han sido las siguientes:
- 1) La demanda de capacidad. Incluye 2 componentes:
- Características de la estructura estimular de las tareas – 2 tareasconcurrentes tienen mayor interferencia cuanta más incompatibilidad estructural exista entre ellas. Si una situación exige los mismos mecanismos o estructuras, habrá mayor grado de interferencia.
- Nivel de dificultad de una misma tarea Cuanto mayor es el nivel de dificultad de una tarea, mayor cantidad de recursos consume, exige mayores demandas de capacidad. (Contar hacia atrás de 1 en 1, de 3 en 3, de 7 en 7).
- 2) El suministro de capacidad: Aquellas tareas que son priorizadas tienen una mayor asignación de recursos.
- 3) El nivel de práctica alcanzado por el sujeto en la tarea: conforme se practica una actividad, la cantidad de recursos que se consume es menor, aunque sea difícil la tarea.
- 4) El nivel del arousal del organismo: Cuando el “arousal” o estrés son bajos, los recursos de atención parecen aumentar a medida que se incrementa el “arousal”. Pero a partir del llamado punto óptimo de activación, la relación se invierte y el incremento de “arousal” produce una discriminación en la cantidad de recursos atencionales disponibles.
Para Kahneman lo que determina la cantidad de recursos disponibles es el nivel de arousal o activación que tiene el sujeto en esos momentos. También postuló que los recursos se asignan en función de la interacción entre la complejidad de la tarea, la práctica del sujeto y la existencia de interferencias estructurales. Navon y Gopher analizaron el rendimiento de las tareas concurrentes mediante la representación de lo que se conoce con el nombre de función de recursos-ejecución (FRF).
Tareas limitadas por los recursos y tareas limitadas por los datos: la función de recursos – ejecución
Navon y Gopher establecen una diferenciación entre procesos y/o tareas limitadas por los recursos y procesos y/o tareas limitados por los datos cuando se asigna una determinada cantidad de recursos a una tarea y ,como consecuencia de ellos, se produce un incremento en el nivel de ejecución, entonces se afirma que la tarea está limitada por los recursos. Por el contrario, si el incremento de recursos no produce una mejora en el rendimiento, entonces la tarea está limitada por los datos. La relación entre recursos y rendimiento se puede analizar empíricamente, y se ilustra gráficamente en una curva de rendimiento denominada curva recursos-rendimiento para cada tarea analizada. Cualquier tarea precisa una cantidad mínima de recursos para poder ser ejecutada eficazmente. Dicha cantidad recibe el nombre de umbral mínimo de recursos.
Ejemplos de curvas recurso-rendimiento.
Las curvas 1 y 2 indican que el rendimiento de la tarea siempre es el mismo y no varía al incrementar la cantidad de recursos asignados a la tarea.
Las curvas 5 y 6 esbozan un pendiente que va ascendiendo según se incrementa la cantidad de recursos asignados.
Las curvas 3 y 4 muestran en los primeros momentos una pendiente que de pronto deja de ascender y se mantiene estable.
La distinción entre procesos limitos por los datos y limitados por los recursos también puede explicar el tipo de interferencia observada entre tareas concurrentes.
- Cuando dos tareas se realizan simultáneamente, y se produce el fenómeno de interferencia, esta puede ser de dos tipos: simétrica ( ambas tareas se halan limitadas por los recursos) o asimétrica (una de las tareas está limitada por los datos y la otra por los recursos).
- Cuando dos tareas se realizan simultáneamente, y no se produce el fenómeno de interferencia, es porque ambas tareas se ven limitadas por los datos.
El análisis de las curvas POC
La representación de las funciones de recursos-ejecución (PRF) son de gran utilidad, pero no permite analizar la representación conjunta de las 2 tareas. Para poder analizarlas conjuntamente se han ideado otras representaciones que son conocidas con el nombre de análisis de las características de las operaciones de ejecución / curvas POC.
Una de las curvas POC más relevantes son las que se conocen con el nombre de curvas AOC, ideadas por Sperling (1986). Figura 5.2. (pág.130): Ejemplos de curvas AOC.
- En el eje de abcisas se expresa el porcentaje de aciertos en la tarea A, y en el eje de ordenadas, el porcentaje de aciertos en la tarea B.
- Se halla un punto de intersección a partir de las líneas perpendiculares de las puntuaciones en las tareas realizadas por separado.
- Reflejamos en la gráfica a modo de “puntos vacíos” las puntuaciones obtenidas cuando las tareas se realizan de forma conjunta.
- La línea gruesa que conecta dichos puntos vacíos es la AOC, y la línea fina representa lo que estadísticamente sería “el mejor ajuste a los datos”.
¿Cómo interpretamos estas curvas? Pues según el grado en que la AOC se aleje del punto de intersección de las perpendiculares de la puntuación en las tareas aisladas. MAYOR ALEJAMIENTOMAYOR INCOMPATIBILIDAD O DEPENDENCIA ENTRE LAS TAREAS
El papel de la práctica
El estudio de la práctica en las situaciones de doble tarea en la psicología contemporánea tiene como ejemplo clásico los estudios de Spelke, Hirst y Neisser. Los resultados de Spelke y Hirst han recibido interpretaciones diversas. Desde las teorías de la automaticidad, la explicación dada a este estudio es que la tarea de escritura llegaba a automatizarse. Los propios autores todavía no descartan la idea de que se pueda hablar de un ejercicio intermitente de tareas, e incluso sugieren que es difícil explicar, desde el contexto de la automaticidad, por que tales tareas son conscientes a pesar de haberse automatizado.
Solomon y Stein intentaron en Harvard enseñarse a sí mismos a leer y escribir al mismo tiempo. Concluyeron que las tareas complejas podían ser prácticamente automatizadas.
Bryan y Harter estudiaron el desarrollo de la habilidad relacionada con el envío y recepción de mensajes telegráficos. Tras una práctica de muchos años, los receptores telegráficos alcanzaron un nivel asintótico en su ejecución, es decir, ya no mostraron ninguna mejoría. Bryan y Harter concluyeron que dicho proceso recibía el nombre de automatización y que era el automatismo adquirido quien liberaba a la atención para ser utilizada en otras cosas.
Downey y Anderson realizaron una investigación semejante a la de Solomon y Stein, consiguieron mejoras notables tras 17 horas de entrenamiento, pero no lograron alcanzar la misma velocidad de lectura que poseían en condiciones normales, ni lograron el automatismo en la medida en que siempre fueron conscientes de las palabras que copiaban.
En los años 50 aparece la teoría del procesamiento de la información. Sus primeros modelos que consideraron el papel de la práctica en el procesamiento cognitivo fueron precisamente los modelos atencionales. Estos modelos, dependiendo de la forma en que conceptualizaran el problema de la capacidad de procesamiento, proponían uno u otro papel a la variable practica. En concreto:
- Para los modelos estructurales de filtro, los efectos de la práctica se entendían como una gran mejora y una alternancia más rápida de los canales o entradas de la información.
- Para los modelos de capacidad, la práctica permita el sujeto aprender a usar más apropiadamente los recursos de procesamiento de que dispone en un momento determinado.Los modelos que mejor han enfatizado el papel de la práctica en los mecanismos de funcionamiento de la atención han sido dos: el modelo de destrezas adquiridas de Neisser y los modelos de automaticidad.
Modelo de destrezas adquiridas de Neisser (1976)
Neisser considera que la actividad cognitiva no es el resultado de la acción de un mecanismo fijo aislado sino que es el resultado de un conjunto de habilidades adquiridas mediante la práctica. La atención dividida es una “habilidad adquirida”. La limitación en el rendimiento no es permanente dado que desaparecerá con el nivel de práctica pertinente. Neisser ha desarrollado una serie de experimentos que ponen en entredicho los modelos de capacidad limitada y que evidencian que con adecuado nivel de práctica se pueden ejecutar dos tareas concurrentemente, de forma consistente. (Aunque otros lo han contradicho).
Modelos de automaticidad
Neisser mostró la importancia de la práctica, pero los modelos de automaticidad también han analizado con bastante sistematicidad estas variables. Para los modelos de automaticidad, el papel que juega la práctica es el de facilitar la automatización de una tarea o proceso que en principio se definía como controlado.
Shiffrin y Dumais (1981) afirman que la automatización de las habilidades cognitivas se manifiesta en dos tipos de cambios principales:
O bien se añaden o se suprimen nuevas estrategias de procesamiento que facilitan un cambio en el procesamiento controlado.
O bien viejos automatismos pueden reconstruirse y desarrollar un nuevo procesamiento automático mientras que prosigue la adquisición de habilidades.
Se produce, pues, un cambio importante en la conceptualización de los hechos que va a ser interpretado en términos de:
O bien un cambio cualitativo en el procesamiento de la información.
O bien mejoras cuantitativas a lo largo de un continuum.
En el estudio de la automaticidad se han utilizado 2 paradigmas experimentales a) las tareas de búsqueda, b) el paradigma de doble tarea. En las tareas de búsqueda visual, los procesos de automatización se han estudiado analizando como una tarea de búsqueda cuyo procesamiento inicial es serial o controlado puede llegar a ser, como consecuencia de la práctica, un procesamiento de búsqueda paralela o automática. ¿Y qué es lo que facilita este proceso de automatización? Existe un acuerdo general en muchos teóricos que consideran que es la práctica consistente lo que realmente facilita el automatismo. La consistencia se define en una tarea de búsqueda visual en función de la relación que se establece entre los estímulos y la respuesta que ha de desarrollar el sujeto. La mayoría de estas investigaciones han mostrado que el efecto de la práctica es casi inexistente cuando no se produce una consistencia entre estímulo y respuesta. En cambio, cuando si existe dicha consistencia la práctica produce cambios importantes; en concreto:
- a) En el caso de mantener constante el tamaño del encuadre a lo largo de toda la tarea los tiempos de reacción disminuyen progresivamente y la recisión de las respuestas aumenta de forma sistemática.
- b) Cuando aumenta el tamaño del encuadre, el sujeto no aumenta su tiempo de reacción.
Algunos estudios representativos que explicitan la importancia de la variable consistencia en el desarrollo del automatismo.
En el paradigma de doble tarea, los resultados obtenidos muestran que la práctica puede llegar a facilitar la buena ejecución de 2 tareas simultáneas cuando en un principio se producía un fenómeno de interferencia. La importancia de estas teorías reside no solo en estas aportaciones sino en otras más especificas:
I. Analizar cuáles son los mecanismos que se encuentran en la base de las habilidades que permiten el proceso de automatización: conocer los componentes de una tarea puede posibilitar que, si la tarea es difícil de automatizar en su conjunto, al menos se puedan automatizar algunos de sus componentes. Uno de los modelos más conocidos y perfeccionados que ha intentado detallar las distintas fases que tiene lugar durante la automatización de una tarea ha sido el elaborado por Schneider. Según dicho modelo, la automatización de un proceso tiene lugar a través de cuatro etapas o fases:
Procesamiento controlado: tiene lugar durante el periodo de practica inicial de una tarea controlada;
Procesamiento automático y controlado: implica haber desarrollado y finalizado la fase 1, en esta fase concurren procesamiento controlado y automático al mismo tiempo;
Procesamiento automático con asistencia de procesamiento controlado: si bien procesamiento controlado y automático siguen concurriendo, hay un marcado predominio de procesamiento automático;
Procesamiento automático: en esta fase los mecanismos del aprendizaje se han desarrollado lo suficientemente como para haber automatizado la tarea.
II. La puesta en marcha de programas de entrenamiento sistemático de automatización de tareas.
Programa de entrenamiento para el control de tráfico aéreo.
Por último, indicaremos que estos trabajos de las teorías de la automaticidad se ven complementados al analizar cómo influyen toda una serie de variables mediadoras importantes a lo largo del proceso de automatización tales como tiempo de consolidación mínimo que se necesita para conseguir la automatización, historia previa de aprendizaje del sujeto, nivel de motivación del sujeto, etc.