- Detalles
- Categoría: Tecnología
- Científico del grupo de Fotónica egresado de la Universidad Nacional Autónoma de México
Ciudad de México.- 7 de febrero de 2017.- (aguzados.com).- Un grupo de científicos de diversos países, en el cual colabora el mexicano Víctor Dolores Calzadilla, investigador del grupo de Fotónica Integrada de la Universidad Tecnológica de Eindhoven, Países Bajos, desarrolló un nuevo nanoled (light-emitting diode).
Este nanoled mide menos de una micra de diámetro, esto es más de mil veces más pequeño que la cabeza de un alfiler, y está hecho de materiales semiconductores como el fosfuro de indio y el arseniuro de indio y galio, detalló el científico mexicano, quien es egresado de la Universidad Nacional Autónoma de México (UNAM).
La principal novedad de este desarrollo es que, además de los materiales semiconductores, se utilizó también plata en el diseño del dispositivo. “Al introducir metales, logramos ciertas propiedades tales como el alto confinamiento de la luz y una emisión eficiente”.
Esto es que se puede generar y manipular la luz en espacios muy pequeños. Por ejemplo, en una uña cabrían más de 100 millones de nanoledes. Si cada nanoled tiene la capacidad de ser prendido y apagado en un nanosegundo, entonces la cantidad de ledes que caben dentro de una uña podrían servir para transmitir 100 millones de gigabits por segundo.
Además, este nuevo nanoled es mil veces más eficiente que otros dispositivos similares que se han desarrollado, así lo reportó este grupo de científicos en el artículo titulado “Waveguide-coupled nanopillar metal-cavity light-emitting diodes on silicon”, publicado recientemente en la prestigiada revista Nature Communications.
En entrevista para la Agencia Informativa Conacyt, Dolores Calzadilla subrayó que incrementar la eficiencia de los nanoledes es importante porque se traduce en el uso eficiente de la energía, el cual es uno de los retos en la sociedad actual.
Este nanoled podría tener diversas aplicaciones en el ámbito de las comunicaciones y sensores. Por ejemplo, en el futuro se podría utilizar en las interconexiones ópticas de los centros de procesamiento de datos.
Cuando nosotros hacemos una búsqueda en Internet, por ejemplo en Google, esa petición llega a un centro de procesamiento de datos que la procesa y nos envía el resultado. En estos centros se hacen muchas de las tareas de Internet y ahí se necesitan conexiones muy rápidas, eficientes y de alta densidad, porque hay muchos servidores interconectados y trabajando intensamente”.
Actualmente el principal reto en estos centros es mantener el creciente ancho de banda de manera eficiente. De tal forma que con estos nanoledes se podrían hacer circuitos fotónicos, similares a los electrónicos, pero que funcionan con luz, esto ayudaría a que las conexiones fueran más eficientes y rápidas, explicó el especialista en fotónica integrada.
Este proyecto denominado NAVOLCHI (Nano Scale Disruptive Silicon-Plasmonic Platform for Chip-to-Chip Interconnection) se empezó a trabajar desde hace cinco años.
Actualmente este grupo de científicos, originarios de Alemania, Italia, Portugal, Países Bajos y México, trabaja en mejorar esta tecnología y hacerla más accesible, de manera que sea atractiva para la industria en el futuro.
Víctor Dolores Calzadilla estimó que esta tecnología de nanoledes que se pule y perfecciona en Europa podría salir al mercado en unas dos décadas.
{ttweet}
- Detalles
- Categoría: Tecnología
- El objetivo es asistir a los operadores de este tipo de equipos para mejorar su desempeño
Aguascalientes, Aguascalientes.- 6 de febrero de 2017.- (aguzados.com).- Daniela Moctezuma Ochoa, profesora investigadora de Cátedras Conacyt adscrita al Centro de Investigación en Geografía y Geomática (Centrogeo), trabaja en el desarrollo de un prototipo de sistema inteligente de videovigilancia, para asistir a los operadores de este tipo de equipos que cuentan con cámaras colocadas en la vía pública.
“A partir de las imágenes de las cámaras de seguridad, poder determinar conductas: si hay mucha gente corriendo, si podemos caracterizar un robo. La idea es dar una ayuda para que la gente que está viéndolas no se aburra, porque son muchas cámaras, es un sistema inteligente que puede decirte 'mejor ve estas', 'aquí yo detecto que está pasando algo extraño', en vez de que veas las cámaras en las que no está pasando nada, y así aumentas la eficiencia de los operadores”, explicó Moctezuma Ochoa en entrevista para la Agencia Informativa Conacyt.
Comentó que en México ya se han realizado algunos estudios al respecto, uno de ellos por parte del Centro de Ingeniería y Desarrollo Industrial (Cidesi), sede Querétaro. Este proyecto, sin embargo, tiene sus particularidades, se trata de definir situaciones anómalas, para ello se analizan uno o varios videos donde ocurren aglomeraciones extrañas, existe alguna persona tendida en el suelo o se efectúa un robo, esto, para extraer las características de la imagen y definir patrones individuales que, en su conjunto, pueden determinar estos tres tipos de situaciones trazadas como meta para el prototipo.
“La idea es poder proporcionar algoritmos inteligentes, porque esto es parte de la inteligencia artificial, que asista a la toma de decisiones para los operadores. Esta primera etapa es un prototipo donde se van a detectar ciertos patrones de las imágenes para alertar, pero la idea es que a partir de lo que se pueda caracterizar poder lanzar una acción, sin la necesidad de que intervenga una persona. Por ejemplo: si detecta un incendio, para qué esperas que alguien lo vea, sino que ya puedas llamar a los bomberos”, destacó Daniela Moctezuma.
Sistema inteligente y fiable
Precisó que al tratarse de un prototipo, su capacidad se restringirá a un número limitado de cámaras. En este sentido, añadió que a pesar de ello este proceso es ambicioso, pues se espera desarrollar el mismo en tan solo un año, periodo de tiempo en el cual se deberán recopilar datos e imágenes para su análisis, así como el desarrollo de la parte matemática, labor para la que se contará con la colaboración del doctor Mariano Rivera Meraz, profesor investigador del Centro de Investigación en Matemáticas (Cimat), sede Guanajuato.
“La idea es que este proyecto se extienda y poder probar con cientos de cámaras, es muy difícil, pero se puede hacer algo, aunque sea ayudar en algo al operador, no suplirlo, pero sí hacer más eficiente su trabajo. Por ejemplo: si normalmente ve las cámaras 5, 7 y 9, hay muchas veces que en las cámaras no está pasando nada, entonces la idea es que si el algoritmo detecta que en determinada cámara está pasando algo raro, emitir una alerta para que el operador la vea (…) Otra idea consiste en poder tomar decisiones básicas de forma automática, sin la necesidad de que intervenga una persona, como un incendio”, puntualizó.
Aseguró que la fiabilidad no depende en exclusiva del algoritmo sino también de factores como la calidad de la imagen, el ángulo de la cámara y otras cuestiones técnicas, así como la capacidad del sistema para adaptarse al entorno, pues las condiciones pueden variar, dependiendo de la hora o la ubicación geográfica. Considerando estas condiciones, se espera lograr un nivel de fiabilidad de 85 o 90 por ciento, para las tres situaciones anómalas que se buscan definir.
Por último, la profesora investigadora de Cátedras Conacyt señaló que se cuenta con algoritmos y técnicas que han sido desarrollados con propósitos similares, los cuales se irán adaptando a las cámaras que servirán como piloto para, con base en sus resultados, realizar modificaciones o buscar otras soluciones completamente nuevas, y así conseguir que los equipos de videovigilancia emitan una señal, la cual pudiera ser un aviso en pantalla o foco rojo para pasar a observar determinada cámara.
Centrogeo
Es un centro público de investigación integrado al sistema Conacyt. Su objetivo predominante es realizar actividades de investigación científica y tecnológica en las áreas de la geografía, geomática y disciplinas afines de las ciencias exactas, naturales y sociales, así como reforzar las tareas de vinculación con la sociedad, para lograr una mayor incidencia en las capacidades regionales y locales en materia de ciencia, tecnología e innovación y promover la apertura de nuevas líneas de investigación.
{ttweet}
- Detalles
- Categoría: Tecnología
- Esperanza de vida sonora para quienes sufren de este tipo de discapacidad
Santiago de Querétaro, Querétaro.- 5 de febrero de 2017.- (aguzados.com).- En el marco del Primer Congreso Internacional de Tecnología de Sordos, organizado por el proyecto World Deaf Tech y la Comisión de Personas Sordas del Estado de Querétaro, A.C. (CPSEQ), se llevó a cabo la presentación de proyectos tecnológicos enfocados en promover una mayor inclusión de las personas sordas en la sociedad.
El primer proyecto es un traductor de la Lengua de Señas Mexicana a voz y texto en tiempo real; un sistema que a través de sensores y algoritmos de inteligencia artificial tiene la capacidad de capturar e interpretar las señas de una persona para su respectiva traducción en palabras.
Este proyecto fue diseñado por el egresado de la maestría de tecnologías de cómputo aplicado de la Universidad Tecnológica de la Mixteca en Huajuapan de León, Oaxaca, Gibran García Bautista, con la asesoría del profesor investigador de esa institución, Felipe Trujillo Romero.
Gibran García Bautista detalló que este sistema consiste en un sensor Kinect que almacena información en una base de datos RGB-D para dar el seguimiento, interpretación y traducción de las posiciones del esqueleto humano para después procesarlas y realizar el reconocimiento con redes neuronales/DTW para la generación de palabras en texto y audio.
El Diccionario de Lengua de Señas Mexicana, de María Esther Serafín de Fleischmann y Raúl González Pérez, es una publicación del Consejo Nacional para Prevenir la Discriminación (Conapred) con el objetivo de facilitar el conocimiento de este sistema de comunicación, fomentar una cultura incluyente y reafirmar la diversidad del patrimonio cultural de nuestro país.
“Este proyecto inició con mi tema de tesis, que era solamente la creación de un corpus lingüístico de la lengua de señas; entonces yo cree un programa que, a través del Kinect, podía captar información y almacenarla en la base de datos para después obtener una nube de puntos para la recreación de modelos tridimensionales de las personas, y con diferentes implementaciones de algoritmos para obtener la información o el patrón que yo deseaba”, explicó.
García Bautista puntualizó la importancia de utilizar redes neuronales artificiales en el diseño de este sistema traductor de la lengua de señas mexicanas, pues son necesarias para poder hacer una correcta clasificación de las palabras, y con ello evitar errores en el proceso de traducción.
“La red neuronal se asemeja a una biológica. Yo estoy utilizando una de tipo Backpropagation con la que se busca minimizar errores. El punto de una red neuronal es que se le presenta un vector característico o patrón, que puede ser una palabra, misma que la red procesa con una base de datos ya existente, y es capaz de clasificarlas para evitar que se confundan, por muy parecidas que parezcan, y así obtener un modelo de clasificación”, agregó.
El egresado de la maestría en tecnologías de cómputo aplicado abundó que este proyecto, que nació para ofrecer una alternativa de comunicación con las personas sordas, ha tenido una proyección importante a través de la redacción de artículos y presentaciones en instituciones del extranjero.
“Formo parte de una organización que se llama Sociedad Internacional de la Óptica y la Fotónica (SPIE, por sus siglas en inglés) que se encuentra en Estados Unidos, donde redacté un artículo sobre el proyecto y fue aceptado para ir a presentarlo allá. También tuve la oportunidad de presentarlo en un congreso en Tucson, Arizona. Este proyecto lo pude desarrollar con los recursos que obtuve por ser becario del Consejo Nacional de Ciencia y Tecnología (Conacyt) y de la Universidad Tecnológica de la Mixteca en Huajuapan de León”, señaló.
Gibran García Bautista indicó que el proyecto se encuentra en la etapa de complementar el corpus lingüístico del sistema, lo cual se está haciendo con el apoyo del Centro de Atención para Estudiantes con Discapacidad (CAED) para realizar las grabaciones.
“Tenemos 80 por ciento del corpus terminado; esto es importante porque no hay referencias respecto a una base de datos semejante, por lo que tendríamos el corpus lingüístico tridimensional de lengua de señas a nivel nacional, pero para ello requerimos de más apoyos, tanto para terminar el prototipo como para desarrollar la patente”, finalizó.
Dilo en Señas, aplicación para teléfonos móviles
Otro de los proyectos presentados en el Primer Congreso Internacional de Tecnología de Sordos, fue Dilo en Señas, aplicación para teléfonos móviles o tabletas cuyo objetivo es promover el aprendizaje de la Lengua de Señas Mexicana a través de juegos dirigidos para niños y con ello fomentar la inclusión de los menores sordos, desarrollado por Gerardo Monsiváis González y Rocío Garza Gutiérrez, quien explicó que el proyecto surgió ante la necesidad de comunicación que existe entre sordos y oyentes en su ámbito laboral.
“Yo trabajé en una empresa en la que contrataron a Gerardo, que es sordo y actualmente es mi socio en el proyecto. En ese momento me preocupó que la empresa no estuviera lista para tener empleados con esta discapacidad. Fue difícil su capacitación pero aprendí mucho en todo el trayecto; eso fue lo que en una primera instancia generó la idea de desarrollar el proyecto”, recordó.
Garza Gutiérrez detalló que Dilo en Señas es un proyecto que tiene como base tanto la experiencia vivida entre personas sordas y oyentes, así como un proceso de investigación en tendencias, procesos y prácticas colaborativas e innovación tecnológica.
“Empecé un doctorado en educación inclusiva, en la Universidad de Baja California. Yo soy ingeniera en sistemas, estudié en el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM) campus Monterrey, y la maestría en educación. Me interesó mucho ese doctorado y mi tesis la hice sobre sordera. Fue cuando surgió la idea de crear esta aplicación, porque me di cuenta
que el problema raíz de una persona sorda es no tener un desarrollo del lenguaje natural en la primera infancia, que realmente eso afecta a personas oyentes también”, explicó.
Rocío Garza Gutiérrez informó que la aplicación Dilo en Señas, que ya está disponible en Google Play y en Apple Store para celulares y tabletas Android, lleva, a once meses de su lanzamiento, más de 107 mil descargas. Esta versión incluye dos funciones que son: Practicar, para poder observar las señas y aprenderlas, y Jugar, donde se pueden ver videos de las señas para seleccionar imágenes y ganar puntos.
“La primera versión de Dilo en Señas tiene 89 señas en siete categorías: Familia, Alimentos, Juguetes, Animales, Colores, Números y el Abecedario. La idea es relacionar videos con imágenes, aprendiendo una serie de palabras del lenguaje básico de los sordos. Se ingresa a la categoría, y aunque se equivoquen se va dando un aprendizaje a través de estos juegos”, aclaró.
La creadora de Dilo en Señas detalló que esta aplicación ha obtenido reconocimientos como el tercer lugar en Aplicaciones Educativas en México, el premio Cemex-Tec 2016 en la categoría de Emprendedores Sociales, así como el premio Incluye 2016 en la categoría de Sensibilización.
“La siguiente etapa sería agregarle más contenido y queremos poco a poco más funcionalidad, también a la aplicación, pero principalmente nos estamos convirtiendo en una asociación para poder ofrecer más productos y servicios y recibir donativos para seguir apoyando, porque sí queremos mantenerla gratis para todo el público”, finalizó.
Contacto: Ing. Gibran García Bautista.- Desarrollador del proyecto Traductor de la Lengua de Señas Mexicana a voz y a texto en tiempo real.- Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
Rocío Garza Gutiérrez.- Desarrolladora del proyecto Dilo en Señas.- Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
{ttweet}
- Detalles
- Categoría: Tecnología
- Se trata de una plataforma en línea y una aplicación para teléfonos móviles de lo más avanzado
Ciudad de México.- 6 de febrero de 2017.- (aguzados.com).- La palabra Alexandria se remonta al siglo III a. C., el lugar donde se construyó la biblioteca más grande del mundo y contenía los volúmenes más extensos en materia de medicina de aquel entonces. Con esa idea, el médico Eduardo Hernández Rangel y un equipo de expertos crearon el proyecto que lleva el mismo nombre, y también es un acrónimo de Advanced Learning Educational model-X using VR/AR, cuyo objetivo es generar un modelo de educación distinto, haciendo uso de la tecnología.
Se trata de una plataforma en línea y una aplicación para teléfonos móviles, en la cual se pueden consultar y cargar cursos, libros, imágenes y videos en 3D, a los que se puede acceder por medio de la realidad virtual.
En entrevista con la Agencia Informativa Conacyt, el creador del proyecto, Eduardo Hernández Rangel, un médico mexicano que actualmente realiza un fellowship en investigación en imagen cardiovascular y torácica en la Universidad de California en Irvine, platica cómo surgió la idea de implementar esta plataforma.
“Surgió hace un año y tres meses, cuando salió una convocatoria por parte de la Universidad Stanford para genera nuevas formas de enseñanza donde se pueda aplicar la tecnología de alto impacto a un bajo costo. Platicando con un amigo de México pensamos que podíamos subir una imagen de rayos X, para que por medio de realidad virtual fuera posible tener una experiencia inmersiva a través de ella”, detalló.
Entonces Eduardo Hernández pensó en crear una biblioteca virtual especializada en medicina y poder explicar, a través de ella, desde un simple modelo anatómico, hasta casos clínicos complejos.
Aunque en la actualidad existen ya varias enciclopedias virtuales, no están al alcance de todos debido a su alto costo, que oscila entre los mil dólares. Por esta razón, la propuesta de Hernández Rangel fue crear contenidos gratuitos y enseñar a los usuarios a crear incluso un visor de realidad virtual, para poder vivir la experiencia a un menor costo.
“Nos propusimos la creación de una aplicación gratuita donde se cree el contenido. Actualmente el equipo lo conformamos tres médicos, dos diseñadores mexicanos, programadores que están trabajando de forma gratuita, un ingeniero biomédico y un estudiante de medicina de la India que sabe diseñar y programar”, señaló.
El aprendizaje como una experiencia única
“Cuando abrí por primera vez mi libro de cardiología, me explicaban por medio de texto una imagen en dos dimensiones, lo que es el corazón, sus cuatro cámaras, su función y cómo se mandaban los impulsos eléctricos para su contracción y relajación. Lo aprendí pero era complejo poder asimilarlo y adaptar realmente una estructura que en realidad es tridimensional. Lo que estamos intentando con nuestro proyecto no es solo crear un contenido en tercera dimensión el cual te muestre la función del corazón, sino también poder sentir o tener la sensación de que estás dentro incluso del corazón”, detalló.
Eduardo Hernández Rangel explica que la plataforma, además de brindar información, hace que las personas logren una experiencia completamente inmersiva por medio de realidad virtual y aumentada.
“Cuando una persona padece alguna enfermedad y su médico debe explicar acerca de ella, es difícil que los términos y la explicación empleada se entiendan en su totalidad. Imagínate poder tener la capacidad cuando hay una enfermedad, hacer un zoom in tan grande que puedas ver las células cómo están trabajando, incluso mostrar cómo funciona un medicamento, tener un caso clínico completo y que con toda la información que se tenga, se pueda tomar la decisión para un diagnóstico y mejor tratamiento”, dijo.
También con este proyecto, además de ayudar a estudiantes de medicina, se trata de empoderar a médicos que hayan terminado su formación o que deseen una educación médica continua.
De mexicanos para mexicanos
Actualmente, Hernández Rangel y el equipo de desarrolladores buscan que la plataforma se eche a andar en universidades mexicanas, para que los mismos estudiantes puedan generar contenido y utilizar el que otros generen.
“Queremos demostrar que México puede ser punta de lanza para generar nuevas ideas y relacionen tecnología con educación y enseñanza. Estamos buscando acercarnos a las universidades mexicanas para que puedan crear sus propios equipos y generar o apoyar a alguien para que pueda generar contenido. A la vez, necesitamos gente de tiempo completo, principalmente diseñadores y programadores”, detalló.
Alexandria se presentó por primera vez en Stanford Medicine X y obtuvo el award de la mejor aplicación en tecnología en educación médica. El equipo participó en la final del concurso internacional de TuApp.org, donde obtuvo el cuarto lugar y una mención honorífica, y también fueron seleccionados para presentarse en el Congreso Nacional de Educación Médica y el Congreso Internacional de Innovación Educativa en México.
Asimismo, la parte correspondiente a radiología se presentó en el Congreso Internacional del RSNA (Radiological Society of North America) en Chicago en el mes de diciembre, y han sido seleccionados para organizar el próximo año la sección dedicada a la aplicación de realidad virtual en radiología e impresión en 3D.
{ttweet}
- Detalles
- Categoría: Tecnología
- Moderna herramienta de comunicación para discapacitados en vías de perfeccionarse
Saltillo, Coahuila.- 4 de febrero de 2017.- (aguzados.com).- Investigadores del Departamento de Ingeniería Eléctrica y Electrónica del Instituto Tecnológico de Saltillo (ITS) —que forma parte del Tecnológico Nacional de México (Tecnm)— desarrollan un software decodificador de texto a voz de bajo costo, para apoyar a personas con discapacidad, con problemas de visión y habla.
“Fue una integración de tecnologías en una sola interfaz que podamos poner al alcance de la gente, ya que lo único que se necesita es una computadora que tenga sistema operativo Windows y elementos básicos como escáner e impresora”, explicó el maestro en ciencias Luis Javier Mona Peña, maestro adscrito al Departamento de Ingeniera Eléctrica y Electrónica del ITS.
Este desarrollo surgió como parte de un curso de liderazgo y la detección de una necesidad de impacto social localizada en la Asociación Mexicana de Enfermedades Visuales y Estudios de la Retina, A.C. (AMEVER) Saltillo.
El objetivo del proyecto fue desarrollar una herramienta informática, auxiliar en la comunicación de personas con discapacidad para elevar su calidad de vida, a partir de la necesidad de leer y escribir de usuarios con problemas de visión o de habla, para mejorar su bienestar social.
Para lograr su finalidad, el equipo de investigadores se enfocó en alcanzar metas específicas como: capacidad de interactuar con hardware de bajo costo (escáneres, cámaras, sistemas de audio, etcétera), económicamente accesibles para cualquier persona, funcional en cualquier computadora comercial (sistema operativo Windows) y la integración de tecnologías informáticas como TTS, conversión a braille, OCR, generación de audiolibros, entre otros.
De acuerdo con los datos de la Encuesta Nacional de la Dinámica Demográfica (Enadid) 2014 del Inegi, la prevalencia de la discapacidad en México es de seis por ciento.Los tipos de discapacidad más frecuentes a nivel nacional son: caminar, subir o bajar usando sus piernas (64.1 por ciento) y ver, aunque use lentes (58.4 por ciento) y en el extremo opuesto se ubica la dificultad para hablar o comunicarse (18 por ciento).Las personas con dificultad para ver son las que más asisten a la escuela (42.4 por ciento) entre la población con discapacidad de la población de tres a 29 años. Fuente: Instituto Nacional de Estadística y Geografía(Inegi).
“Es una herramienta de integración de tecnologías, muchas ya existen pero están aisladas. No innova en el aspecto de desarrollar una tecnología nueva, sino que integra diversas herramientas en una sola aplicación y la hace práctica, fácil de usar y de bajo costo, porque puede utilizarse con cualquier computadora”, aclaró el científico Mona Peña.
La implementación del software se realizó por medio de diversas herramientas y programación, siendo las opciones: sistemas de visión con el uso de algoritmos de extracción morfológica, aprendizaje de patrones y su posterior entrenamiento, algoritmos matemáticos para reconocimiento óptico de caracteres (OCR) y referencias de código compilado ActiveX.
En el caso de este desarrollo, se utilizaron referencias ActiveX (Microsoft Speech SDK 5.1 y MODI.I Document), además del generador del módulo de Microsoft Office para LabVIEW 2013 para su integración. Se optó por el uso de la tecnología ActiveX con el propósito de reutilizar código ya compilado tanto del sistema operativo Windows (XP, Vista, 7, 8, 10) y de Microsoft Office (2003, 2007, 2010, 2013), en específico el Microsoft Office Document Imaging.
El sistema operativo Windows trae la opción de Texto a Voz para lo cual utiliza la referencia ActiveX Microsoft Speech SDK 5.1, para la obtención de la lectura computarizada de texto plano. Sin embargo, es incapaz de obtener texto desde imágenes. Para esto, fue empleada la herramienta del Módulo Office Document Imaging MODI.I Document, que permite la extracción de texto de imágenes para su posterior uso o edición.
“El usuario no necesita ser un experto, la interfaz te indica qué tienes que hacer, a través de etapas, para ayudar al usuario a escribir, leer algo, etcétera. La idea es que todo esté en una sola interfaz. De esta manera se puede agarrar un libro, escanearlo o, en su defecto, una imagen ya escaneada o un archivo de texto plano y generar un audiolibro o convertirlo a código braille”, señaló el investigador.
El equipo de colaboradores indicó que desean dar a conocer el programa, que sea probado y sea aplicado en diferentes lugares que, por cuestiones económicas, no tengan acceso a software y hardware especializados.
En cuestión tecnológica, los desarrolladores buscarán la integración de voz a texto y, de esta forma, proporcionar mayor independencia al usuario, al no requerir apoyo en actividades como por ejemplo enviar correos electrónicos.
“Otra intención que buscamos es la generación masiva de fuentes bibliográficas en código braille ya que el software puede extraer la información de las fuentes antes mencionadas independientemente del idioma en el que estén escritas y, con una impresora especial, tener la posibilidad de imprimirlas en código braille, para emplearlo en casos como libros difíciles de conseguir o costosos para personas ciegas”, puntualizó el maestro en ciencias Mona Peña.
Contacto: M. en C. Luis Javier Mona Peña.- Maestro adscrito al Departamento de Ingeniera Eléctrica y Electrónica, ITS.- Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. Teléfono 01 (844) 438 9500.
{ttweet}