martes, 18 de octubre de 2011

DiDi: Mitigating the Performance Impact of TLB Shootdowns Using a Shared TLB




Carlos Villavieja, UPC






@PACT 2011







Translation Lookaside Buffers (TLBs) are ubiquitously used in modern architectures to cache virtual-to-physical mappings and, as they are looked up on every memory access, are paramount to performance scalability. The emergence of chipmultiprocessors (CMPs) with per-core TLBs, has brought the problem of TLB coherence to front stage. TLBs are kept coherent at the software-level by the operating system (OS). Whenever the OS modifies page permissions in a page table, it must initiate a coherency transaction among TLBs,a process known as a TLB shootdown. Current CMPs rely on the OS to approximate the set of TLBs caching a mapping and synchronize TLBs using costly Inter-Proceessor Interrupts (IPIs) and software handlers. In this paper, we characterize the impact of TLB shootdowns on multiprocessor performance and scalability, and present the design of a scalable TLB coherency mechanism. First, we show that both TLB shootdown cost and frequency increase with the number of processors and project that softwarebased TLB shootdowns would thwart the performance of large multiprocessors. We then present a scalable architectural mechanism that couples a shared TLB directory with load/store queue support for lightweight TLB invalidation, and thereby eliminates the need for costly IPIs. Finally, we show that the proposed mechanism reduces the fraction of machine cycles wasted on TLB shootdowns by an order of magnitude.

Optimizing Data Layouts for Parallel Computation on Multicores

Yuanrui Zhang, Wei Ding, Jun Liu, and Mahmut Kandemir

The Pennsylvania State University

@PACT 2011

The emergence of multicore platforms offers several opportunities for boosting application performance. These opportunities, which include parallelism and data locality benefits,require strong support from compilers as well as operating systems. Current compiler research targeting multicores mostly focuses on code restructuring and mapping. In this work,we explore automatic data layout transformation targeting multithreaded applications running on multicores. Our transformation considers both data access patterns exhibited by different threads of a multithreaded application and the on chip cache topology of the target multicore architecture. It automatically determines a customized memory layout foreach target array to minimize potential cache conflicts acrossthreads. Our experiments show that, our optimization brings significant benefits over state-of-the-art data locality optimization strategies when tested using 30 benchmark programs on an Intel multicore machine. The results also indicate that this strategy is able to scale to larger core counts and it performs better with increased data set sizes.

Phase-Based Application-Driven Hierarchical Power Managementon the Single-chip Cloud Computer

Nikolas Ioannou @ PACT 2011

University of Edinburgh


To improve energy efficiency processors allow for Dynamic Voltage and Frequency Scaling (DVFS), which enables changing their performance and power consumption on-thefly.Many-core architectures, such as the Single-chip Cloud Computer (SCC) experimental processor from Intel Labs,have DVFS infrastructures that scale by having many more independent voltage and frequency domains on-die than today’smulti-cores.This paper proposes a novel, hierarchical, and transparent client-server power management scheme applicable to such architectures. The scheme tries to minimize energy consumption within a performance window taking into consideration not only the local information for cores within frequency domains but also information that spans multiple frequency and voltage domains.We implement our proposed hierarchical power control using a novel application-driven phase detection and prediction approach for Message Passing Interface (MPI) applications, a natural choice on the SCC with its fast on-chip network and its non-coherent memory hierarchy. This phase predictor operates as the front-end to the hierarchical DVFS controller,providing the necessary DVFS scheduling points.Experimental results with SCC hardware show that our approach provides significant improvement of the EnergyDelayProduct (EDP) of as much as 27.2%, and 11.4% on average,with an average increase in execution time of 7.7% over a baseline version without DVFS. These improvements come from both improved phase prediction accuracy and more effectiveDVFS control of the domains, compared to existing approaches.

No More Backstabbing... A Faithful Scheduling Policy for Multithreaded Programs

PACT Conference 11 Octubre de 2011, 17:00 Spanish Time, Galveston Island TX, USA, Hotel Galvez.

Kishore Kumar Pusukuri, Rajiv Gupta, and Laxmi N. Bhuyan

Efficient contention management is the key to achieving scalable performance for multithreaded applications running on multicore systems. However, contention management policies provided by modern operating systems increase context-switches and lead to performance degradation for multithreaded applications under high loads. Moreover, this problem is exacerbated by the interaction between contention management policies and OS scheduling polices. Time Share(TS) is the default scheduling policy in a modern OS such as OpenSolaris and with TS policy, priorities of threads change very frequently for balancing load and providing fairness inscheduling. Due to the frequent ping-ponging of priorities, threads of an application are often preempted by the threads of the same application. This increases the frequency of involuntary context-switches as wells as lock-holder thread preemptions and leads to poor performance. This problem becomes very serious under high loads.To alleviate this problem, in this paper, we present ascheduling policy called Faithful Scheduling (FF), which dramatically reduces context-switches as well as lock-holder thread preemptions. We implemented FF on a 24-core Dell PowerEdgeR905 server running OpenSolaris.2009.06 and evaluated it using 22 programs including the TATP database application, SPECjbb2005, programs from PARSEC, SPEC OMP, and some microbenchmarks. The experimental results show that FF policy achieves high performance for both lightly and heavily loaded systems. Moreover it does not require any changes to the application source code or the OS kernel.

A Unified Scheduler for Recursive and Task Dataflow Parallelism

PACT Conference 11 Octubre de 2011, 17:00 Spanish Time, Galveston ISland TX,USA, Hotel Galvez, Music Hall.

Hans Vandierendonck


Task dataflow languages simplify the specification of parallel programs by dynamically detecting and enforcing dependencies between tasks. These languages are, however, often restricted to a single level of parallelism. This language design is reflected in the runtime system, where a master thread explicitly generates a task graph and worker threads execute ready tasks and wake-up their dependents. Such an approach is incompatible with state-of-the-art schedulers such as the Cilk scheduler, that minimize the creation of idle tasks (work-first principle) and place all task creation and scheduling off the critical path. This paper proposes an extension to the Cilk scheduler in order to reconcile task dependencies with the work-first principle. We discuss the impact of task dependencies on the properties of the Cilk scheduler. Furthermore, we propose a low-over head ticket-based technique for dependency tracking and enforcement at the object level. Our scheduler also supports renaming of objects in order to increase task-level parallelism. Renaming is implemented using versioned objects, a new type of hyperobject. Experimental evaluation shows that the unified scheduler is as efficient as the Cilk scheduler when tasks have no dependencies.Moreover, the unified scheduler is more efficient than SMPSS, a particular implementation of a task dataflow language.

martes, 11 de octubre de 2011

Extreme Computing



PACT Conference
11 Octubre de 2011, 15:50 Spanish Time

Galveston ISland TX,USA, Hotel Galvez, Music Hall.

Stuart Feldmanm
Vice-President, Engineering, Google



Computing at the limits of technology calls for numerous engineering decisions and tradeoffs. General purpose solutions do not work at the extremes. Traditional HPC has been analyzed for decades, resulting in specialized architectures. Systems for life critical systems, those for large enterprises, those for tiny devices, also present their own special requirements. The area of data intensive computing is newer, and the computing models are less established. To support large (millions) of users doing similar but different computations, expecting to have access to enormous amounts of information (petabytes, not gigabytes) and to get prompt responses and global access calls for different compromises. Different applications present their own requirements and difficulties. This talk will address some of those needs - different models of storage and data management that are appropriate for different types of application, networking demands for parallelism and global access, management of large numbers of fallible processors and storage. Support for such computing also calls for different approaches to software methodology, system management, and deployment. But massive data also opens new ways to approach science and to get remarkable results the delight and surprise users.



Biography:




Stuart Feldman is responsible for the health and productivity of Google's engineering offices in the eastern part of the Americas, Asia, and Australia. He also has executive responsibility for a number of Google products. Before joining Google, he worked at IBM for eleven years. Most recently, he was Vice President for Computer Science in IBM Research, where he drove the long-term and exploratory worldwide science strategy in computer science and related fields, led programs for open collaborative research with universities, and influenced national and global computer science policy. Prior to that, Feldman served as Vice President for Internet Technology and was responsible for IBM strategies, standards, and policies relating to the future of the Internet, and managed a department that created experimental Internet-based applications. Earlier, he was the founding Director of IBM's Institute for Advanced Commerce, which was dedicated to creating intellectual leadership in e-commerce. Before joining IBM in mid-1995, he was a computer science researcher at Bell Labs and a research manager at Bellcore (now Telcordia). In addition he was the creator of Make as well as the architect for a large new line of software products at Bellcore. Feldman did his academic work in astrophysics and mathematics and earned his AB at Princeton and his PhD at MIT. He was awarded an honorary Doctor of Mathematics by the Univeristy of Waterloo in 2010. He is former President of ACM (Association for Computing Machinery) and member of the board of directors of the AACSB (Association to Advanced Collegiate Schools of Business). He received the 2003 ACM Software System Award. He is a Fellow of the IEEE, of the ACM, and of the AAAS and serves on a number of government advisory committees.

sábado, 23 de julio de 2011

La Naturaleza en un chip: Inteligencia Computacional y Sistemas Bioinspirados



Dentro de los Cursos de Verano de el Escorial, se celebró el Curso de Verano titulado "La Naturaleza en un chip: Inteligencia Computacional y Sistemas Bioinspirados" y del que ofrecemos un resumen de las distintas charlas.






LUNES, DÍA 18 de Julio
10.30 horas: Inauguración Computación Evolutiva y sistemas Bioinspirados

Como presentación del curso esta primera charla introducirá al cursillista en el mundo de la Computación Evolutiva y sistemas bioinspirados, explicando los conceptos básicos y poniendo algunos ejemplos y aplicaciones ilustrativos.

12.00 horas: Conferencia Algoritmos de Estimación de Distribuciones y Neurociencia

Profesor Pedro Larrañaga Múgica

Catedrático de Universidad, Departamento de Inteligencia Artificial, Facultad de Informática, Universidad Politénica de Madrid.

En la charla se introducirán los algoritmos de estimación de distribuciones, una nueva manera de llevar a cabo la computación evolutiva. Dichos algoritmos tienen características comunes con los algoritmos genéticos, radicando su principal diferencia en el hecho de que los primeros no se basan en operaciones de cruce y mutación para evolucionar una población de individuos, cada uno de los cuales puede ser considerado como posible solución a un problema de optimización. En su lugar, los algoritmos de estimación de distribuciones aprenden una distribución de probabilidad conjunta de los individuos seleccionados en cada generación, para posteriormente, simulando de la misma, obtener la nueva población de individuos. Se mostrarán diferentes tipos de algoritmos de estimación de distribuciones en función de la complejidad del modelo probabilístico aprendido en cada generación, así como del dominio (discreto o continuo) de la función a optimizar. En la parte final de la charla se mostrarán tres aplicaciones de estos algoritmos en neurociencia: a) el estudio de la dependencia entre parámetros en modelos compartimentales; b) la optimización de estructuras cerebrales artificiales; y c) la clasificación supervisada de datos provenientes de magnetoencefalografías.

16.30 horas: Mesa redonda Aplicaciones en Medicina. Seguridad del paciente.

Pedro Larrañaga Múgica (UPM), José Ignacio Hidalgo (UCM), Jose Luis Risco-Martín (UCM), Juan Lanchares Dávila (UCM).

MARTES, DÍA 19 de Julio
10.00 horas: Conferencia De la investigación al negocio: impacto de la Inteligencia Computacional en Telefónica

Profesor: David Millán-Ruiz Especialista Tecnológico, Telefónica i+D.

A lo largo de los últimos años, se puede percibir una tendencia creciente orientada a resolver problemas cada vez más complejos donde el flujo de datos es altamente cambiante y el volumen datos es demasiado grande para muchas de las técnicas convencionales. Los algoritmos bioinspirados han demostrado ser suficientemente potentes como para poder resolver problemas de esta índole hasta el punto de que muchas empresas han apostado por usar dichas técnicas en entornos industriales reales, dando el salto de la teoría a la práctica. Empresas como Telefónica y, más extensivamente en otros casos, la sociedad se han beneficiado de este enorme potencial. En esta charla, se presentarán algunas de las aplicaciones de estos algoritmos dentro del grupo Telefónica, así como su impacto económico y social en algunos casos. Aunque la charla incluirá algunas nociones teóricas, se centrará en las aplicaciones en sí, dando un punto de vista de negocio.

12.00 horas: Conferencia Algunas Aplicaciones Reales de los Algoritmos Bioinspirados

Profesor: Oscar Cordón Investigador Principal,Unidad de Investigación “Aplicaciones de Lógica Fuzzy y Algoritmos Evolutivos”, Centro Europeo de Soft Computing.

Catedrático, Departamento de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada.

En esta charla presentaremos una serie de aplicaciones reales de los algoritmos evolutivos y los algoritmos de optimización basada en colonias de hormigas mono- y multi-objetivo desarrolladas en el European Centre for Soft Computing, un centro internacional de investigación y desarrollo existente desde principios de 2006 en Mieres, Asturias.

En primer lugar se introducirán los conceptos básicos de los dos tipos de algoritmos bio-inspirados comentados, así como los de la lógica fuzzy, otra de las técnicas del área de soft computing empleada para resolver los problemas considerados mediante un enfoque híbrido. Posteriormente, se repasarán los conceptos básicos de la optimización multi-objetivo puesto que varias de las aplicaciones tratadas responden a esta naturaleza, como suele ocurrir en los problemas reales. Finalmente, se describirán en detalles los problemas concretos, los mecanismos de resolución considerados y los resultados obtenidos:

■Uso de algoritmos evolutivos y sistemas basados en reglas fuzzy para el control automático de sistemas de ventilación en grandes edificios.
■Uso de algoritmos de minería de grafos y de algoritmos evolutivos multi-objetivo para la el análisis y comparación de mapas visuales de la ciencia.
■Uso de algoritmos multi-objetivo de optimización basada en colonias de hormigas para el equilibrado de líneas de montaje en Nissan.
■Uso de algoritmos evolutivos y conjuntos fuzzy para el apoyo a la identificación forense de personas desaparecidas.
16.30 horas: Mesa redonda: Nuevas formas de computación evolutiva ¿Estamos reinventando la rueda? Abraham Duarte Muñoz

MIÉRCOLES, DÍA 20 de Julio
10.00 horas: Conferencia Aplicaciones de la Inteligencia Computacional para la Generación de Contenidos en Videojuegos

Profesor: Francisco Fernández de Vega

Profesor Titular de Universidad, Director Grupo de Evolución Artificial, Dpto. Tecnología de los Computadores y de las Comunicaciones, Universidad de Extremadura.

La Inteligencia Computacional ha conseguido un éxito notable en los últimos años. Surgida al amparo de la Inteligencia Artificial, en las últimas décadas ha madurado y diversificado sus potencialidades: el número de técnicas incluidas en el término a crecido de manera importante, y los problemas reales que ha enfrentado son de lo más variopinto: Visión por Computador, Diseño electrónico, planificación de trabajos, modelado de sistemas, procesamiento del lenguaje, diseño de interfaces hombre-máquina, vida artificial, etc. Uno de los campos que con más fuerza está incorporando nuevas técnicas de Inteligencia Computacional se enmarca en la industria del ocio: generación de contenidos para videojuegos. En esta charla se realizará un recorrido de las aplicaciones de la IC en la industria del videojuego, las líneas de investigación actual y algunos resultados de interés. En particular se mostrará la aplicación de la Programación Genética (PG) y algunos resultados obtenidos y utilizados en videojuegos 3D. Se mostrará la utilizad de la PG en general, y su aplicación particular para el diseño gráfico.

16.30 horas: Mesa redonda Hardware Evolutivo. ¿Futuro o utopía?

Juan Lanchares Dávila (UCM), Francisco Fernández de Vega (UEx), David Millán (Telefónica i+D), José Ignacio Hidalgo (UCM), José Luis Risco-Martín (UCM).

JUEVES, DÍA 21 de Julio
10.00 horas: Conferencia Algoritmos Meméticos: Presente y Futuro

Prof. Carlos Cotta

Profesor Titular de Universidad, Departamento Lenguajes y Ciencias de la Computación, ETSI Informática, Universidad de Málaga.

Durante las dos últimas décadas hemos podido ser testigos del asentamiento de los algoritmos meméticos (AMs) como una de las técnicas más populares para la resolución de problemas complejos de optimización. El pragmatismo inherente de estas técnicas ha facilitado el desarrollo de modelos híbridos basados en la búsqueda de sinergias entre diferentes técnicas y a la explotación de todo tipo de conocimiento dependiente del problema, dado lugar a enfoques algorítmicos de gran riqueza y sofisticación. De este modo, los modelos iniciales apenas basados en el uso conjunto de algoritmos evolutivos y técnicas de búsqueda local han ido dando paso a modelos y arquitecturas que aunque predichas hace tiempo eran impensables hasta hace bien poco. Así, hoy se dispone de AMs que incorporan mecanismos de auto-adaptación y auto-generación de estrategias de búsqueda y que son capaces de interactuar con técnicas completas o con expertos humanos. A lo largo de charla se hará un breve recorrido histórico de estas técnicas, se abordarán estas extensiones así como algunas de las características que pueden aguardar a los AMs en el futuro.

12.00 horas: Conferencia Algoritmos Evolutivos Paralelos

Prof. Marco Tomassini

Profesor Titular, Department of Information Systems, Université de Lausanne (Suiza)

Los algoritmos evolutivos, por su naturaleza propia, consumen una buena cantidad de recursos computacionales. Afortunadamente, la estructura de estas heurísticas permite el desarrollo de versiones paralelas de las mismas mediante el uso de modificaciones del algoritmo, sobre todo con respecto a su estructura de población. Estas versiones pueden incluso llegar a proporcionar un mejor rendimiento aunque estén implementadas a través de técnicas de computo secuencial estándar. A estas consideraciones hay que sumar los avances tecnológicos de la última década, mejoras que contribuyen de manera determinante a acelerar el computo gracias a la posibilidad de llevar a cabo operaciones con alto grado de paralelismo físico.

16.30 horas: Mesa redonda Algoritmos Evolutivos e Inversión en bolsa

Dra. Laura Nuñez Letamendía (IE Business School, Head of Research Office, Assistant Professor of Finance). Carlos Cotta (UMA), Marco Tomassini (UNIL), José Ignacio Hidalgo (UCM).

VIERNES, DÍA 22 de Julio
10.00 horas: Conferencia Aplicando Inteligencia Computacional en la PYME española

Dra. Anna Esparcia

Directora de I+D+i, S2 Grupo, http://www.s2grupo.es/,

Profesora asociada, Dpto. Ingeniería de Sistemas y Automática, E.T.S. de Ingenieria del Diseño, Universidad Politécnica de Valencia

En esta ponencia se discutirá el interés de la utilización de las técnicas de Inteligencia Computacional (IC) en el entorno empresarial español, en particular de la PYME española. Además se presentarán varias aplicaciones de la IC a problemas reales en la industria, desde ubicar productos en supermercados, hasta el control ecológico de plagas, pasando por el software que se repara a sí mismo.

12.00 horas: Clausura y entrega de diplomas

viernes, 27 de mayo de 2011

Sistemas de Inversión en Bolsa guiados por Algoritmos Evolutivos



En esta ocasión he sido yo quién ha tenido el gusto de aceptar una invitación para dar una conferencia dentro del Máster de Investigación de la Universidad de Extremadura. La conferencia tuvo lugar en el Salón de Actos del Centro Universtario de Mérida el 26 de Mayo de 2011.

Esta charla pretende presentar los trabajos llevados a cabo en nuestro grupo en el campo de la Inversión en Bolsa. En realidad la aproximación a este tipo de problemas es una consecuencia de la experiencia adquirida en computación evolutiva y la colaboración con el instituto de empresa y profesores del CES Felipe II.

Un sistema de trading es, básicamente, un conjunto de reglas matemáticas bien estructuradas, en las que basaremos nuestras operaciones en bolsa (http://sistemasdetrading.es) y puede ser algo tan sencillo como una regla proporcionada por un indicador técnico (Media Móvil y Threshold) o llegar a ser Complejos programas de inversión. Pueden ser tanto Autónomos como Supervisados. Para analizar el mercado y obtener estas reglas existen basicamente dos tipos de aproximaciones: Análisis Fundamental y Análisis Técnico.

El Análisis fundamental Pretende evaluar el ‘auténtico’ valor de la acción, llamado valor fundamental, mediante el análisis de toda la información de la compañia, beneficios, plantilla, etc... Las teorías subjetivas del valor son aquellas que se definen en términos de las preferencias de los agentes del mercado. Aunque inicialmente se pensaba lo contrario, está demostrado que el análisis fundamental no es mejor que el análisis técnico a la hora de capacitar a los inversores para obtener ganancias superiores a la media.


Por su parte el análisis técnico hace uso de Indicadores técnicos para generar señales de compra y venta. Los Indicadores se basan en series de puntos obtenidos al aplicar una fórmula a las series de precios. ¿Qué precios?: cualquier composición de precios de apertura, máximo, mínimo o cierre en cualquier periodo de tiempo. Un único punto no representa suficiente información ni puede generar un indicador. Una serie de datos en un periodo de tiempo permite el análisis: Se puede comparar el presente con el pasado. Permite las comparaciones y los análisis con gráficos (‘chart’). Intenta captar el comportamiento del mercado, es decir, la psicología de la masa y los indicadores técnicos habitualmente se derivan de formulas sencillas fáciles de comprender.

Los Algoritmos Evolutivos permiten seleccionar tanto los parametros de inversión de los indicadores como el conjunto de indicadores para obtener el mejor rendimiento. Sin embargo es necesario que se lleve a cabo en muchos de los casos un gran esfuerzo computacional. En este charla se abordan tanto la aplicación de los Algoritmos Evolutivos como de su paralelización.



+info



Diego J. Bodas-Sagi, Pablo Fernández, J. Ignacio Hidalgo, Francisco J. Soltero, and José L. Risco-Martín. 2009. Multiobjective optimization of technical market indicators. In Proceedings of the 11th Annual Conference Companion on Genetic and Evolutionary Computation Conference: Late Breaking Papers (GECCO '09). ACM, New York, NY, USA, 1999-2004. DOI=10.1145/1570256.1570266






Pablo Fernández-Blanco, Diego J. Bodas-Sagi, Francisco J. Soltero, and J. Ignacio Hidalgo. 2008. Technical market indicators optimization using evolutionary algorithms. In Proceedings of the 2008 GECCO conference companion on Genetic and evolutionary computation (GECCO '08), Maarten Keijzer (Ed.). ACM, New York, NY, USA, 1851-1858. DOI=10.1145/1388969.1388989 http://doi.acm.org/10.1145/1388969.1388989



Contreras, Iván, Jiang, Yiyi, Hidalgo, J.I. Núñez-Letamendia, Laura. Using a GPU-CPU architecture to speed up a GA-based real-time system for trading the stock market. Soft Computing - A Fusion of Foundations, Methodologies and ApplicationsPublisher: Springer Berlin / HeidelbergIssn: 1432-7643 Doi: 10.1007/s00500-011-0714-3






jueves, 12 de mayo de 2011

Linear Operators



El pasado 10 de Mayo visito el CES Felipe II la profesora Carmen-Violeta Muraru de la Universidad "Vasile Alecsandri" de Basau (Rumanía), en la Sala de Juntas del Centro Cultural Isabel de Farnesio de Aranjuez, impartió una conferencia sobre Operadores Lineares.


Los operadores Lineares son un tipo de operadores matemáticos definidos por Weiestrass en 1885, las aplicaciones principales de los operadores esrán en el diseño de automoción para aproximar funciones que describen superficies . Nos contó por ejemplo que las propiedades de los operadores de Bernstein radican en la buena aproximación que realizan preservando la suavidad de la curva, en otras palabras, el número de ondulaciones. Partiendo de Bernstein aparecen otras aprocimaciones y así aparecen el concepto de curva de Bezier (1970) trabajador de Citroen. Otro tipo de curvas se definen con operadores en 2D para hacer el paso a 3D, curvas B-Splines, NURBS; Operadores Bernstein-Schurer, Stancu operators, Operadores de Durmeyer o de Kantorovich.

La labor investigadora actual de la profesora Muraru se centra en la búsqueda de nuevas clases de operadores positivos y lineales









martes, 10 de mayo de 2011

How can we use clinical corpora to assist the clinician, her managers and clinical research?





Dr. Hercules Dalianis



Department of Computer and Systems Sciences (DSV)



Stockholm University, Sweden



Sala de Grados 9 de mayo de 2011 17:00



Resumen de la Charla:



Hoy en día se producen por razones legales un gran número de registros electrónicos de pacientes (EPR), pero nunca se vuelven a utilizar ni para la investigación clínica, ni por razones de inteligencia de negocios (hospital). Por otra parte, también es alarmante rara vez asisten al trabajo diario del médico en la documentación de la situación del paciente de una manera adecuada. Nuestro objetivo es cambiar estos hechos. Los Corpus clínicos constituyen una fuente abundante para extraer valiosa información que puede ser utilizada para este propósito. El Corpus de Estocolmo EPR ​​es una gran base clínica escrita en sueco, con más de un millón de registros relativos a los últimos tres años, de pacientes distribuidos en más de 800 clínicas en la zona de Estocolmo. Hemos explorado los subconjuntos de este corpus con el fin de comprender todo el corpus y su dominio. En un experimento se anotaron un subconjunto del corpus de exclusión de la identificación, y hemos creado un estándar para la formación y evaluación de las herramientas automáticas de identificación. En otro experimento se investigó las relaciones de los códigos de diagnóstico (ICD-10) para los análisis de co-morbilidad y se encontraron resultados interesantes. También hemos desarrollado un método de apoyo automático no sólo para la asignación de nuevos códigos CIE-10 en nuevas entradas clínicas, sino también para la evaluación de las entradas a las que ya se ha asignado códigos CIE-10. Por último hemos tratado de entender qué es exactamente lo que está escrito en el corpus, con el objetivo de construir herramientas de extracción de información que puedan distinguir entre la veracidad de los diagnósticos. Es el diagnóstico de certeza, negado, o incierto, hasta cierto punto? Dos anotadores con antecedentes clínicos han anotado en un subconjunto del corpus los niveles de objetividad

Resumen II Simposio Itest



Durante los días 6 y 7 de abril de 2011, se ha celebrado, en el seno del Centro de Estudios Superiores Felipe II de Aranjuez, el II Simposio iTest cuyas actas prologan estas líneas. Durante estos días cerca de 60 educadores, padres y profesionales relacionados con la educación de todos los niveles han podido intercambiar sus opiniones y experiencias en relación a las nuevas tecnologías y la educación.




Presentar estas actas es para mí una verdadera satisfacción como colaborador del grupo que dirige la profesora Nuria Joglar. Después de cinco años de trabajo, este II Simposio iTest es una constatación de la madurez que ha tomado el grupo HEOL (Herramientas de Evaluación On-Line) organizador del encuentro. El simposio ha contado con 15 comunicaciones orales agrupadas en dos sesiones vespertinas realmente intensas de contenido y participación. La principal novedad con respecto a la primera edición es la aportación realizada por los profesores del CES Felipe II, detallando sus conclusiones tras el uso de iTest en la Universidad. Es realmente gratificante ver la preocupación y trabajo dedicado por parte de los profesores de las distintas titulaciones en avanzar en la utilización de las nuevas tecnologías dentro de sus enseñanzas.




El evento contó con dos conferencias invitadas de Profesores Investigadores en el área de e-learning. En primer lugar, el Profesor Doctor de la UCM, y antiguo profesor del CES, D. Iván Martínez nos ofreció una interesantísima ponencia sobre “Plataformas educativas, estandarización y licencias de contenidos y herramientas educativas”. Esta charla hizo una revisión de las principales herramientas educativas, de las características que deben tener los contenidos educativos y de cómo utilizarlos y reutilizarlos sin entrar en conflicto con los derechos sobre la propiedad intelectual e intentando, por otra parte, seguir los modelos de estandarización disponibles en la actualidad.




La segunda conferencia invitada, “Matemáticas 2.0”, corrió a cargo del Catedrático de la Universidad de Cantabria D. Tomás Recio Muñiz. En esta charla se abordaron cuestiones relativas al uso de las herramientas 2.0 en las aulas y de si efectivamente éstas contribuirán a un mejor aprendizaje/enseñanza de las competencias matemáticas. Como sabemos, lo que se conoce con el nombre de Web 2.0 permite un aprendizaje visualizando, interactuando, experimentando, descubriendo, compartiendo… Este proceso necesita de un control del profesor que aporte la motivación necesaria para que se pueda asegurar que el alumno, por un lado, aprende correctamente los contenidos necesarios, y por el otro crea correctamente las estructuras de razonamiento. Interesantísima ponencia con una invitación clara a la reflexión de todos aquellos que se ayudan de las nuevas tecnologías en sus clases.




En cuanto a las comunicaciones orales comenzaron con “El proyecto iTest: un poco de historia”, llevada a cabo por Cristina Esteban, Javier Pérez y Ezequiel Yuste, becarios del equipo investigador HEOL. El resto de ponencias las podemos agrupar en dos grupos, las que se refieren a la utilización de iTest en el CES Felipe II y las que nos hablaron de las nuevas tecnologías en las etapas educativas previas a la Universidad.




Beatriz Soto y Carine Tschann, profesoras del CES Felipe II, hicieron un resumen del uso y aplicación de iTest en las titulaciones de Traducción e Interpretación. Las profesoras de Bellas Artes Mª Jesús Abad María, Ana Esther Balboa, Yolanda García y Marta Linaza presentaron “El blog: una herramienta versátil en la docencia universitaria. Por su parte Raquel Belinchón, Dorotea de Diego y María Velasco nos contaron sus “Dilemas en el uso de las TICs para la enseñanza universitaria de Ciencias Sociales”. Por último, “La Comunicación Audiovisual en Imágono” realizada por el Profesor de Comunicación Audiovisual del CES Felipe II, Carlos Hurtado, nos dio una visión de otro tipo de proyectos dentro de las nuevas tecnologías. En concreto Imágono es una propuesta práctica y experimental de creación de un medio de comunicación cuyas señas de identidad se resumen en la no necesidad de inversión económica, ya que lleva a cabo la creación audiovisual empleando los actuales recursos educativos del centro, de los alumnos y los profesores.




Balbino de Oro (CP San Fernando de Aranjuez) habló, sobre “El ordenador en el aula de Educación Infantil”. Andrés Díaz del IES Domenico Scarlatti intervino con la ponencia titulada “El uso de un blog para la presentación de trabajos en el ámbito científico-tecnológico del programa de diversificación curricular en la ESO”. Tres fueron las ponencias de profesores del IES Alpajés de Aranjuez. Ana Mª Robles propone un nuevo concepto con su blog “Ítaca: aprender a aprender sin libro de texto”, Javier Medina y Joaquín Luceño nos contaron su experiencia en “Las Wiki como eje conductor de una materia optativa en 3º de ESO” y Javier Alfonso y Joaquín Luceño nos hablaron sobre “Aprovechamiento de las aulas virtuales en ESO y Bachillerato”. Rafael Añez, del CP San José de Calasanz de Aranjuez, dio una charla sobre el “Uso de las TICs en primaria. Por su parte Alejandro Fernández González, IES Clara Campoamor de Móstoles (Madrid), expuso las conclusiones después de la implantación del aula virtual en Matemáticas. Finalmente, Julia García, profesora del IES Alonso de Ercilla de Ocaña (Toledo) centro su presentación en el “Uso del blog y wiki en el aula de inglés”.




Como clausura del II Simposio Itest se celebró una mesa redonda sobre “Educación Y Tecnología” en la que participaron, el Prof. Tomás Recio, D. Felipe Retortillo (Educamadrid, Consejería de Educación de la Comunidad de Madrid), D. Toni Pou (Director Editorial, Proyecto Aula 2.0), D. Javier Medina (profesor del departamento de Ciencias IES Alpajés, Aranjuez), D. David Gurumeta (presidente del AMPA del Colegio Apóstol Santiago, Aranjuez y Senior Manager Aplications Sales Consultant en ORACLE) y que tuve el placer de moderar. En ella se debatió sobre las ventajas e inconvenientes de las nuevas tecnologías en la educación abordando aspectos como el de los computadores y dispositivos móviles como fuente constante de estímulos e información no necesariamente positiva para la concentración y el aprendizaje. Por otra parte la generalización de las TIC supone para los profesores y maestros, un esfuerzo considerable para aprender a utilizar éstas nuevas herramientas y conlleva en muchas ocasiones un considerable aumento en el tiempo que dedican a sus obligaciones.




La mesa redonda comenzó con una presentación por parte de D. Felipe Retortillo responsable de la Comunidad de Madrid del portal EducaMadrid, en la que se mostraron la gran cantidad de herramientas que la CAM pone a disposición de la comunidad educativa de forma totalmente gratuita. Los aspectos técnicos más interesantes de estas herramientas son que están desarrolladas con software libre y que permiten preservar la privacidad de los usuarios, frente a otras plataformas en las que no se garantiza. A continuación D. David Gurumeta aportó una visión diferente exponiendo las preocupaciones y temores que para los padres supone la generalización de las TIC en las aulas. Javier Medina, comentó la repercusión de los esfuerzos necesarios para la implantación de las nuevas metodologías educativas. El profesor Recio por su parte demandó más estudios sobre la calidad de lo que el alumno realmente aprende y constructo mental adquirido tras el uso de las TICs en educación. Estas primeras reflexiones dieron paso a un interesantísimo debate en el que se expresaron distintos puntos de vista, de los padres y educadores de todos los niveles.




Precisamente este debate es una clara señal de la utilidad y conveniencia del Simposio, y desde aquí animo a los investigadores organizadores del mismo a realizar ese esfuerzo necesario para ampliar en su duración temporal el encuentro, que no me cabe la menor duda se celebrará el próximo año. Como miembro del equipo directivo del CES Felipe II es un orgullo colaborar en esta iniciativa que hace que iTest se haya convertido en una de las señas de identidad de nuestro centro.

viernes, 8 de abril de 2011

Educación y tecnología



Como clausura del II Simposio Itest celebrado en El Salón de actos de Lucas Jordán del CES-Felipe-II, de Aranjuez se celebró una mesa Redonda sobre Educación Y Tecnología en la que participaron:


  • Prof. Tomás Recio Muñiz, Catedrático de departamento de Matemáticas de la Universidad de Cantabria.

  • D. Felipe Retortillo, Educamadrid, Consejería de Educación de la Comunidad de Madrid.

  • D. Toni Pou, Director Editorial, Proyecto Aula 2.0D.

  • Javier Medina, profesor del departamento de Ciencias IES Alpajés, Aranjuez.

  • D. David Gurumeta, presidente del AMPA del Colegio Apóstol Santiago, Aranjuez y Senior Manager Aplications Sales Consultant en ORACLE.
Moderador: Prof. J. Ignacio Hidalgo, profesor titular de la Facultad de Informática de la Universidad Complutense de Madrid y Secretario General del CES Felipe II.


La temática Propuesta fue: Los estudiantes que están en la actualidad en las aulas de todos los niveles educativos han crecido en entornos digitales, de manera que muchos prefieren usar el Facebook, entrar en YouTube o hacer vídeos digitales antes que ponerse a leer un libro o sentarse a pensar un problema de matemáticas. Hay en general una tendencia a preferir la gratificación inmediata (enterarse de una historia en menos de 15 minutos a través de un vídeo en YouTube frente a leer un libro) y a cambiar de tarea constantemente, o a simultanear tareas (enviar mensajes de texto a través del móvil mientras hacen los deberes), por parte de los jóvenes. Desde siempre ha habido distractores y motivos para perder el tiempo y no dedicarse al estudio, pero hoy en día ordenadores y teléfonos móviles son una fuente constante de estímulos que plantean un profundo nuevo reto para la concentración y el aprendizaje. Por otro lado, profesores y maestros se enfrentan en la actualidad constantemente al reto de aprender a utilizar nuevas herramientas en el aula, e incluso a extender, con la ayuda de estas nuevas herramientas, el aula fuera del espacio físico de la misma, con el aumento de dedicación horaria correspondiente.

En la comunidad educativa creemos que es importante hacer una pequeña reflexión sobre el uso de la tecnología en el aula (entendida de forma extensa, no restringida al espacio físico de la misma) relacionada con la construcción del conocimiento. Para ello hemos invitado a representantes de todos los sectores involucrados en la comunidad educativa (alumnos, padres, profesores, investigadores, instituciones y editoriales) para debatir y esperamos que tras este debate se forme una “comunidad” de trabajo con implicación de todos los sectores.

La mesa redonda comenzó con una presentación por parte de D. Felipe Retortillo responsable de la Comunidad de Madrid del portal EducaMadrid, en la que se mostraron la gran cantidad de herramientas que la CAM pone a disposición de la comunidad educativa de forma totalmente gratuita. Los aspectos técnicos más interesantes de estas herramientas son que están desarrolladas con software libre y que permiten preservar la privacidad de los usuarios, frente a otras plataformas en las que no se garantiza. A continuación D. David Gurumeta aportó una visión diferente exponiendo las preocupaciones y temores que para los padres supone la generalización de las TIC en las aulas. Javier Medina, comentó la repercusión de los esfuerzos necesarios para la implantación de las nuevas metodologías educativas. El profesor Recio por su parte demandó más estudios sobre la calidad de lo que el alumno realmente aprende y constructo mental adquirido tras el uso de las TICs en educación. Estas primeras reflexiones dieron paso a un interesantísimo debate en el que se expresaron distintos puntos de vista, de los padres y educadores de todos los niveles.


Precisamente este debate es una clara señal de la utilidad y conveniencia del Simposio, y desde aquí animo a los investigadores organizadores del mismo a realizar ese esfuerzo necesario para ampliar en su duración temporal el encuentro, que no me cabe la menor duda se celebrará el próximo año. Como miembro del equipo directivo del CES Felipe II es un orgullo colaborar en esta iniciativa que hace que iTest se haya convertido en una de las señas de identidad de nuestro centro.