- Detalles
- Categoría: Tecnología
Santa María Tonantzintla, Pue, 2 de diciembre 2015.- (aguzados.com).- La radiación proveniente del espacio afecta el óptimo funcionamiento de los sistemas electrónicos de uso en automóviles, radares y naves espaciales, entre otros, y pone en riesgo la infraestructura tecnológica de la que dependen muchos aspectos de la vida cotidiana en el siglo veintiuno.
Para hablar acerca de este problema, que compromete cada vez más la operación de los circuitos electrónicos debido a la miniaturización de los mismos, y proponer soluciones de vanguardia, veintidós expertos de distintas partes del mundo se reúnen en la décimo primera Escuela Internacional sobre los Efectos de la Radiación en Sistemas para Aplicaciones Espaciales (SERESSA, por sus siglas en inglés), que se realiza durante esta semana en el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) en Tonantzintla, Puebla.
Al comenzar el segundo día de actividades de SERESSA, el Dr. Roberto Murphy Arteaga, Director de Investigación del INAOE y miembro del Comité Organizador de la misma, dijo que a lo largo de toda esta semana se hablará sobre la protección de los circuitos integrados contra la radiación que proviene del espacio, en particular la de los rayos gamma y los rayos cósmicos.
“Siendo de componentes tan pequeños, los circuitos integrados son afectados fuertemente cuando estas partículas inciden en ellos, e incluso muchas veces los inutilizan por completo. Por ello es muy importante entender las técnicas de diseño de circuitos integrados para aplicaciones espaciales en aeronaves y, por el tamaño de los circuitos, también es muy importante en aplicaciones a nivel terrestre”, explicó.
El también investigador de la Coordinación de Electrónica apuntó que este problema no es reciente, aunque se ha agudizado en los últimos años: “Las primeras incidencias se reportaron en 1971, pero en ese tiempo los circuitos integrados eran más grandes que en la actualidad y no había tanto problema. Sin embargo, desde ese año se está investigando este fenómeno y en la actualidad es mucho más relevante por las dimensiones de los circuitos”.
El Dr. Murphy informó que la Escuela comenzó con una plática del Dr. Alberto Carramiñana Alonso, Director General del INAOE, quien habló acerca de la detección de rayos gamma y de las partículas cósmicas usando el observatorio HAWC.
“Nuestra Escuela ha seguido con pláticas más especializadas que tienen que ver con la protección que se llama endurecimiento de circuitos integrados para evitar problemas de radiación. Esto será más importante cada día, ya que seguimos reduciendo el tamaño de los circuitos, y ahora las partículas de las que estamos hablando son muy grandes comparadas con los mismos y pueden causar daños catastróficos rápidamente”, añadió.
Finalmente, el Dr. Roberto Murphy subrayó que la Escuela cuenta con la participación de veintidós ponentes que vienen de Europa, Estados Unidos, México y América del Sur, quienes hablan de sus experiencias, de lo que han investigado a lo largo de los años acerca de los efectos de la radiación y de cómo mitigarlos. “En varias pláticas se aborda el tema de la mitigación de los efectos de la radiación a nivel de diseño del circuitos, porque hay que diseñarlos robustamente para evitar el efecto negativo. También se están abordando el tema del encapsulado y otras técnicas”.
En SERESSA 2015 participan Pascal Fouillat (IMS, Francia), Raoul Velazco (TIMA, Francia), Alberto Carramiñana Alonso, Roberto Murphy y José Guichard (INAOE), Konstantin Tapero (RISI, Rusia), Mathieu Barthelemy (CSUG, Francia), Marcelo Famá (CEATSA, Argentina), Gustavo Medina Tanco (UNAM, México), Steve Buchner (NRL, Estados Unidos), Ignacio Castillo (UACM, México), Michel Pignol (CNES, Francia), Alessandro Paccagnella (Universidad de Padua, Italia), Fabián Vargas (PUCRS, Brasil), Dale McMorrow (NRL, Estados Unidos), Daniel Loveless (Universidad de Tennessee, Estados Unidos), Joao Baptista dos Santos Martins (SMDH / UFSM, Brasil), Miguel Ángel Aguirre Echánove (Universidad de Sevilla, España), Ricardo Reis (UFRGS, Brasil), Luca Sterpone (POLITO, Italia), Fernanda Kastensmidt (UFRGS, Brasil), Melanie Berg (NASA, Estados Unidos) y Augusto Parra (BBS, Argentina).
Para mayor información sobre SERESSA consultar la página
http://www.inaoep.mx/seressa2015/index.php
{ttweet}
- Detalles
- Categoría: Tecnología
Israel Pérez Valencia
Querétaro, Qro, 2 de diciembre 2015.- (aguzados.com).- Los proyectos de innovación tecnológica deben ir acompañados de un trabajo interdisciplinario que permita proteger su propiedad intelectual y fomente la cultura de generación de patentes.
Esta y otras reflexiones fueron compartidas por la asociada de propiedad intelectual de la firma de consultoría en servicios legales Uhthoff, Gómez Vega & Uhthoff, Jimena Chi Barrales, en el marco del Congreso Interdisciplinario de Gestión de la Tecnología, organizado por la Facultad de Contaduría y Administración (FCA) de la Universidad Autónoma de Querétaro (UAQ).
En entrevista con la Agencia Informativa Conacyt, Chi Barrales destacó que compartir a los universitarios la importancia de la propiedad intelectual para innovadores, de acuerdo con el marco regulatorio de México, es una tarea muy importante, pues, dijo, de ello depende fomentar el crecimiento en materia de innovación tecnológica y emprendimiento a nivel nacional.
Agencia Informativa Conacyt (AIC): ¿Por qué hablarles a los universitarios sobre la propiedad intelectual y patentes?
Jimena Chi Barrales (JCB): En el caso de México tenemos una población relativamente joven. Mi mayor preocupación es que, después de ocho años de trabajar en el área de propiedad intelectual, me he dado cuenta que los canales de esta rama del derecho son más utilizados por extranjeros; estoy convencida que esta situación no se debe a que los mexicanos no innoven sino que, más bien, generan innovación de forma “orgánica”, es decir, sin la conciencia de las implicaciones que tiene su proyecto.
De acuerdo con la teoría que se ve en las escuelas, los proyectos de innovación comprenden tres etapas: creación, protección y comercialización. Sin embargo, en el caso de las pequeñas y medianas empresas no puede funcionar así, en primer lugar, porque no tienen todos los recursos necesarios para proteger una innovación y después para comercializarla; en segundo lugar, porque necesitan de capital humano y educación en términos de propiedad intelectual.
Por otra parte, la mayoría de las actividades de difusión en materia de propiedad intelectual tiene una connotación negativa: “No puedes utilizar esto porque está registrado” o "esto es un producto pirata". No contemplamos otros enfoques que, si los sabemos utilizar en favor de los innovadores mexicanos —que son jóvenes que hoy en día están estudiando la licenciatura, posgrado o su tesis— vamos a pasar de ser un país basado en la manufactura a uno que desarrolla e impulsa proyectos de innovación que se pueden incluir en esa industria.
AIC: ¿Cuáles son las dificultades a las que se enfrentan los jóvenes innovadores que desarrollan tecnología, en lo referente a la propiedad intelectual?
JCB: Se trata de un camino muy largo; por ejemplo, el trámite de una patente puede tardar hasta cinco años, y presentar la solicitud cuesta alrededor de 10 mil pesos, solamente de derechos; si lo hacen a través de un especialista se tienen que pagar honorarios. Yo creo que los recursos financieros son de los primeros retos a los que se enfrentan los innovadores y, por otro lado, la falta de educación multidisciplinaria que existe en las universidades.
En mi caso, recibí una formación de abogada pero no me enseñaron cómo gestionar un proyecto, o que para lanzar un producto no solo tenía que contar con una autorización en términos legales sino también con un estudio de mercado para saber si iba a ser rentable o no.
Afortunadamente, ya existen políticas públicas e institutos que apoyan los proyectos de innovación, como el servicio que ofrece el Consejo Nacional de Ciencia y Tecnología (Conacyt), el Instituto Nacional de la Economía Social (Inaes), el Instituto Nacional del Emprendedor (Inadem). No obstante, queda un camino muy largo por recorrer en el que no solo se debe comprometer el sector público, sino también el privado y los especialistas de propiedad intelectual. Tenemos una gran responsabilidad en ese sentido con los jóvenes innovadores.
AIC: ¿Esto no será un factor que inhibe la innovación científica y tecnológica en México?
JCB: Por supuesto. Imaginemos al innovador que tiene una gran idea y que cuando comienza a buscar información para constituir su empresa se da cuenta que tiene que pagar 15 mil pesos a un notario, registrar la patente y darse de alta en el Servicio de Administración Tributaria (SAT) para poder declarar impuestos. Yo creo que a cualquier persona que emprende le provoca un miedo brutal; no obstante, el nivel de satisfacción es absoluto, porque se logra sacar adelante un proyecto a pesar de todos los obstáculos.
AIC: Hablando particularmente de las instituciones educativas, ¿hará falta que pongan más énfasis en enseñar a los jóvenes a emprender?
Claro. Yo recuerdo a uno de mis profesores de la Facultad de Derecho, de origen costarricense, que nos decía que el sueño de cualquier abogado era que lo contratara un gran despacho y trabajar para él. Nos subrayaba su sorpresa de que, en nuestros ideales, no contemplábamos tener nuestra propia firma. Afortunadamente las cosas están cambiando, la cultura de emprender es ya una asignatura que se incluye en las instituciones educativas desde hace unos años; por eso soy optimista, respecto al futuro.
AIC: En el caso de los desarrolladores de tecnología, ¿cómo se encuentran respecto al cambio que usted percibe?
JCB: Ellos son mucho más conscientes sobre lo que es la propiedad intelectual y en qué medida les puede ayudar. Actualmente, resulta común observar que alguien que está desarrollando un proyecto de carácter tecnológico se acerca a firmas como Uhthoff, Gómez Vega & Uhthoff en las primeras fases de su desarrollo, en lugar de venir con nosotros cuando el proyecto ya fue lanzado, lo que era un error muy común hace cinco años.
AIC: ¿Cuál sería entonces el procedimiento más adecuado en ese sentido?
JCB: La idea es que en la etapa de creación de un proyecto innovador establezcan un comité multidisciplinario. Un negocio puede tener éxito sin tener que estar protegido por la propiedad intelectual. Tuve la oportunidad de visitar varios centros de investigación y desarrollo en Japón, ellos tienen lo que se conoce como una doble evaluación, donde califican si un proyecto es patentable y si podría tener éxito comercial; y si no es patentable ni infringe derechos de terceros lo comercializan, aunque no tenga una patente.
Por eso es muy importante que al inicio de un proyecto innovador —cuando ya se tiene un primer prototipo—, se acerquen a especialistas y los inviten a formar parte de un comité para que los acompañen en el proceso de consolidación.
AIC: ¿Qué personajes deben integrar estos comités para que resulten efectivos?
JCB: Deben ser grupos multidisciplinarios con gente especializada en áreas como mercadotecnia, contabilidad e ingeniería. Me ha tocado asesorar proyectos de pequeñas y medianas empresas en las que el desarrollo de los productos, la comercialización y hasta la parte legal están a cargo de los ingenieros de la empresa; y bueno, obviamente los ingenieros son expertos en su área y aunque hayan aprendido de alguna manera aspectos legales o de comercialización, no los dominan.
Por eso es tan importante integrar trabajo interdisciplinario para el desarrollo de proyectos y organizar eventos como este Congreso Interdisciplinario de Gestión de la Tecnología de la UAQ, porque estamos hablando de contextos, no de una marca o una patente; la idea es establecer puntos donde converjan especialistas de diferentes ramas y se puedan intercambiar o enriquecer ideas y nuevos proyectos innovadores.
{ttweet}
- Detalles
- Categoría: Tecnología
Ana Luisa Guerrero
México, D.F., 2 de diciembre 2015.- (aguzados.com).- La investigación científica y tecnológica tiene una estrecha relación con herramientas informáticas de gran capacidad de procesamiento, como las que ofrece el Centro Nacional de Supercómputo (CNS).
Perteneciente al Instituto Potosino de Investigación Científica y Tecnológica (Ipicyt), este laboratorio nacional del Consejo Nacional de Ciencia y Tecnología (Conacyt) coadyuva en el cálculo matemático de investigaciones de diversas áreas del conocimiento a fin de que se realicen con certeza y velocidad.
El uso de supercomputadoras ha impactado significativamente en áreas de ingeniería, medicina, geofísica, geografía, química, astronomía, ciencias nucleares, ciencias de la atmósfera, por citar solo algunas, debido a que permite procesar de manera simultánea grandes volúmenes de información.
De acuerdo con el artículo "Supercómputo: aplicaciones y retos en la era digital", publicado por la Revista Digital Universitaria de la UNAM, el uso de esta herramienta ayuda a explicar la estructura del universo y el comportamiento de los átomos, así como diseñar fármacos o la aerodinámica de los aviones, de ahí que se le considere como uno de los pilares en el avance del conocimiento científico.
El doctor Moisés Torres Martínez, coordinador general del CNS, señala que aunque el término supercómputo lo desconozca la población no significa que no deba dársele todo su valor, debido a que de este depende el crecimiento y desarrollo de las naciones.
En entrevista para la Agencia Informativa Conacyt detalla que las aplicaciones del cómputo de alto rendimiento impactan en la vida cotidiana de la gente ya que permiten analizar el clima, fenómenos planetarios o sismos; en simulaciones del cuerpo humano y en áreas de la salud, así como en impactos industriales como pozos petroleros.
Es así, abunda, que su aportación repercute en la dinámica económica y en el desarrollo de las naciones.
Inicios prometedores
El proyecto del Centro Nacional de Supercómputo se perfiló en marzo de 2003 a través de un convenio de colaboración entre el Ipicyt, el Conacyt y el Texas Advanced Computing Center de la Universidad de Texas, institución que donó una supercomputadora Cray T3E con un rendimiento teórico de 160 gigaflops.
El doctor Juan Manuel Sánchez, de la Universidad de Texas, recuerda que la donación fue la semilla para que surgiera el CNS y se afianzara la colaboración entre ambas instituciones, que inició por la relación científica en común entre él y el doctor José Luis Morán López quien, como investigador del Centro de Investigación y de Estudios Avanzados (Cinvestav), acudía con eventualidad a la Universidad Autónoma de San Luis Potosí, antes de que se creara el Ipicyt.
A este proyecto se sumó el gobierno del estado de San Luis Potosí para la construcción del edificio que lo albergaría, cumpliendo con parámetros de acondicionamiento.
Tras un análisis de costo-beneficio del Cray T3E, se concluyó que era más rentable adquirir una máquina de supercómputo de nueva generación, por lo que se negoció con el fabricante para tomar a cuenta el equipo donado para la adquisición de otro con un rendimiento cercano a un teraflops (equivalente a un billón de operaciones de punto flotante por segundo) y cuyo costo contribuyó a solventar el gobierno estatal. A esta máquina se le llamó Un Potosí, en referencia a la actividad minera de la entidad; a la que se sumó Argentum con capacidad de procesamiento de 6.2 teraflops.
El CNS fue inaugurado el 4 de agosto de 2006 con el propósito de atender las necesidades de la comunidad científica. Tras ser beneficiario de una convocatoria de Laboratorios Nacionales, fue registrado y reconocido como tal ante el Conacyt y el Ipicyt un año después.
La calidad del trabajo que se desarrolló le permitió en 2008 firmar su primer contrato utilizando recursos de supercómputo con la iniciativa privada, una tendencia que ha ido consolidando incluso con el ámbito gubernamental y que le ha redituado en ingresos propios para mantenerse en operación como un centro de vanguardia tecnológica.
En el 2013 comenzó operaciones la Thubat-Kaal, una supercomputadora con capacidad de procesamiento de 107 teraflops que está posicionada entre los 500 equipos más poderosos del mundo (de acuerdo con la lista de la organización TOP500) y entre los primeros lugares a nivel Latinoamérica.
Bajo esta directriz de crecimiento, el año pasado —con recursos provenientes de la convocatoria para la Consolidación de Laboratorios Nacionales— adquirió un nuevo sistema de almacenamiento. A la par fue clausurada la Argentum que ha sido destinada a pruebas internas, a capacitación de becarios y para el monitoreo de redes.
A nueve años de su creación, el CNS se ha afianzado como una unidad que provee soluciones en supercómputo, informática y redes que desarrolla proyectos de alto impacto en los sectores científico, educativo, privado y gubernamental.
Academia, industria y gobierno
Por su carácter de laboratorio nacional, el CNS permite el acceso de investigadores de todo el país al supercómputo para el procesamiento de la información de forma remota.
“Proveemos acceso a investigadores del país que necesitan poder de procesamiento, ellos pueden ser del sur o el norte del país porque usan la máquina remotamente para obtener resultados de las investigaciones que están realizando, estas son multidisciplinarias, cubre casi todas las áreas de la ciencia que se ejecutan en el país”, señala.
A la par, los servicios ofertados también están encaminados a la industria y los distintos órdenes de gobierno para darles soluciones en tecnologías de información, que pueden ir desde el desarrollo de software o telecomunicaciones.
“Esos servicios, obviamente, son para mantener en operación el Centro Nacional de Supercómputo debido a que 95 por ciento de nuestros recursos son autogenerados”, dice.
Doctor en Administración Educativa por la Universidad de California, Los Ángeles, y Universidad de California, Irvine, Torres Martínez refiere que han desarrollado modelaciones en diversas áreas, por ejemplo en proyectos de investigación de pronóstico del clima (weather research forecast) o sobre problemas matemáticos que requieren procesar cálculos para determinar algoritmos que los investigadores han desarrollado.
En astronomía, han acompañado a investigadores que analizan ciertos datos para determinar la distancia entre las estrellas; así como en el observatorio HAWC (siglas en inglés de High Altitude Water Cherenkov), el cual obtiene rayos gamma del cielo y a través del procesamiento de supercómputo se genera información que es analizada en las investigaciones.
Han colaborado con el Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), Universidad Autónoma de Baja California, Universidad de Chiapas, Universidad de Guadalajara, Instituto Politécnico Nacional (IPN), Universidad Autónoma de Puebla, Universidad de Sonora y la Universidad de Colima, por mencionar solo algunas de las más de cien que utilizan el CNS.
En la parte de la industria, se realizan modelajes para mejorar los productos de las empresas que se acercan; por ejemplo, con la compañía Mabe “modelamos una parte de estufas en donde el calor se concentra porque el cliente quería cerciorarse que no fuera a ocurrir una explosión en la estufa; así hicimos cálculos del calor”, dice.
Algunos casos de éxito de la colaboración con instancias de gobierno son la creación y alojamiento de los portales de Internet federal y estatales del proyecto Habilidades Digitales para Todos, que suscribieron con la Secretaría de Educación Pública (SEP); en tanto que con el Instituto Nacional de Evaluación Educativa (INEE) ofrecieron servicios para la aplicación piloto del Programa Internacional para la Evaluación de Estudiantes (PISA, por sus siglas en inglés), de la prueba que se realiza en computadora.
Por más procesamiento
La Thubat-Kaal es la cuarta máquina más poderosa del país, con capacidad de procesamiento de 107 teraflops. La más poderosa es la llamada Abacus, hospedada en el Centro de Investigación y de Estudios Avanzados, seguida de la que está en el Laboratorio Nacional de Supercómputo (LNS) en la Benemérita Universidad Autónoma de Puebla (BUAP); en tercer sitio se ubica la Miztli, la supercomputadora de la Universidad Nacional Autónoma de México (UNAM) y detrás la del Ipicyt.
De acuerdo con el doctor Torres Martínez, la suma de estos equipos y de los existentes en el país hacen que México tenga una capacidad de procesamiento de 800 teraflops.
“Esa capacidad no es suficiente para un país cuya economía va creciendo y que requiere poder de cómputo para hacer avanzar su desarrollo e investigaciones que impacten en la economía”, señala.
Quien fuera coordinador de Casas Universitarias-USA en el sistema de universidad virtual de la Universidad de Guadalajara, refiere que lo deseable sería contar con 20 petaflops para cumplir la demanda de la investigación y la industria.
“Un petaflops tiene mil teraflops y nosotros solo tenemos procesamiento de 800 teraflops. Pero lo importante aquí no es tener ese mínimo aún, sino ir incrementando la capacidad gradualmente mientras vamos preparando e incrementando los recursos humanos que manejen esos sistemas de alto rendimiento en el país”, considera.
Y es que, dice, gran parte de la industria nacional necesita poder de procesamiento para resolver problemas y lo hace fuera del país porque no han tenido acceso o el conocimiento de que eso se puede realizar aquí con las supercomputadoras que existen.
“Si tuviéramos más poder de procesamiento en el país y siguiéramos fortaleciendo esas alianzas con la industria, se vería un impacto en las economías locales donde se encuentran los centros de supercómputo y estaríamos manteniendo trabajos del conocimiento para una economía basada en el conocimiento”, explica.
Y pone como ejemplo el desempeño que en los últimos años han tenido países como China, que hace 15 años no tenía una supercomputadora en su territorio y hoy en día tiene la más poderosa del mundo con 33 teraflops, el equivalente a tres mil de lo que posee México.
El rezago en supercómputo es una constante en América Latina, refiere el doctor Juan Manuel Sánchez, pues dice que en la región no hay una máquina que esté entre las primeras 100 más poderosas del mundo; la más rápida está en Brasil en la posición 120.
“Se está produciendo una brecha entre Asia, Estados Unidos y Europa con América Latina en un área que es crítica para la competitividad que, si bien es un reto, también es un área de oportunidad ya que existen entidades como el Centro Nacional de Supercómputo que contribuyen a que se cierre un poco esa brecha que crece a pasos agigantados”, asegura.
No obstante, indica, el supercómputo en el Ipicyt ha ido evolucionando tal y como ha ocurrido en la Universidad de Texas que en el último decenio ha tenido una máquina que se ubica en las diez primeras en el mundo.
“En este momento tenemos una que es la número ocho mundial, cuando la instalamos dos años atrás era la número cuatro y se va a reemplazar en 2016 para que nos ponga nuevamente en la posición tres o cuatro”, agrega.
Retos
El coordinador general del Centro Nacional de Supercómputo refiere que uno de los mayores retos en el supercómputo en México es la formación de recursos humanos, porque existe gran rezago de personas que tienen la formación para trabajar en esta área.
Y es que se requieren programadores y técnicos con conocimiento en sistemas de alto rendimiento, así como técnicos que puedan trabajar con investigadores como mediadores entre la máquina y la investigación que se realice.
Al respecto, el CNS se ha dado a la tarea de formar a su propio personal y un ejemplo de ello es que han firmado convenios con la Universidad Autónoma de San Luis Potosí, la Universidad Politécnica de Aguascalientes y el Instituto Tecnológico de San Luis Potosí, que les envían a sus egresados en tecnologías de información a quienes capacitan en esas áreas. En estos nueve años se han capacitado cerca de 100 jóvenes, de los cuales algunos siguen colaborando y otros se desarrollan en otras organizaciones.
Thubat-kaal
Es una supercomputadora tipo clúster marca IBM modelo iDataPlex, con una capacidad de procesamiento de 107 teraflops pico, en E5640 cores Intel Xeon E5-2680, se convierte como la primera de su tipo de Latinoamérica en contar con el Procesador Gráfico de Propósito General (GPGPU) Intel Xeon Phi 5110P.
Para más información visita el sitio web del Centro Nacional de Supercómputo.
{ttweet}
- Detalles
- Categoría: Tecnología
Israel Pérez Valencia
Querétaro, Qro, 2 de diciembre 2015.- (aguzados.com).- Con la idea de difundir la cultura metrológica en la industria automotriz, metalmecánica y manufactura, así como promover la profesionalización en el ramo, el Centro Nacional de Metrología (Cenam) llevará a cabo una serie de talleres de capacitación en metrología en el evento Metrology School, el próximo 5 de diciembre en la Universidad Instituto de Estudios Superiores del Bajío (Unitesba) en Celaya, Guanajuato.
El líder de proyecto en la Dirección de Planeación, Vinculación e Innovación del Cenam, Hugo Hernández Tapia, informó que la temática central de estos talleres, que se impartirán de forma gratuita, es la metrología dimensional y están dirigidos a especialistas de la industria de todo el país.
“Los talleres están enfocados en la parte de metrología de coordenadas; las temáticas que vamos a abordar son: Tolerancias geométricas y dimensionales, Análisis de sistemas de medición, Análisis de incertidumbre y costos en una máquina de medición por coordenadas, Selección de equipo de medición basado en sus características metrológicas y Buenas prácticas de medición en un laboratorio de metrología en la industria automotriz”, apuntó.
Hernández Tapia destacó que para la impartición de estos talleres se contará con la participación de especialistas del Cenam, el Centro de Ingeniería y Desarrollo Industrial (Cidesi), así como las empresas internacionales Mitutoyo y ZF TRW, y que el objetivo primordial es impulsar a los ingenieros, que están en proceso de capacitación, a interesarse en el tema de la metrología, para que la industria y los laboratorios tengan personal con competencias suficientes en este ramo.
En el Cenam hemos detectado una carencia importante de expertos y personal capacitado en metrología a nivel nacional. Puedo decir que San Luis Potosí y Guanajuato, que son estados con un auge automotriz y de manufactura bastante fuerte, tienen necesidad de gente con esa especialidad. Incluso hasta nosotros, cuando abrimos vacantes para el Cenam nos cuesta trabajo encontrar el personal con el perfil adecuado en esta área; de ahí nuestro interés en desarrollar estos talleres”, subrayó.
El líder de proyecto en la Dirección de Planeación, Vinculación e Innovación del Cenam anunció que, como parte del evento Metrology School, se llevará a cabo también la evaluación del 2o Concurso entre Universidades en Diseño y Desarrollo de Fixture y Gage, cuyo objetivo fue que estudiantes universitarios diseñaran y construyeran un instrumento de medición para empresas de la industria, en el que participaron instituciones de educación superior de tres estados de la república.
Las instituciones que participaron son Unitesba, Instituto Tecnológico de Celaya (ITC), Instituto Tecnológico de Estudios Superiores de Guanajuato (ITESG), la Universidad Politécnica de Guanajuato, la Universidad Politécnica Bicentenario (UPB) y la Universidad Politécnica Juventino Rosas (UPJR). También participó la Universidad Politécnica de Santa Rosa Jáuregui (UPSRJ), en Querétaro, y la Universidad Popular Autónoma del Estado de Puebla (UPAEP), abundó.
Hernández Tapia aseguró que los instrumentos de medición de piezas diseñados por los estudiantes se trabajaron con base en las necesidades de las empresas Arbomex, GKN Driveline, Elay y CIE Automotive, quienes apoyaron la realización del concurso y participarán como evaluadores.
"Para nosotros en el Cenam, este tipo de actividades integra las instituciones educativas con las necesidades de la industria y, al mismo tiempo, sirve para mostrar a estudiantes con las competencias necesarias para integrarse a este sector y que cubran sus necesidades. En el Cenam estamos trabajando para migrar, de ser un país de manufactura, a uno de diseño y desarrollo tecnológico", finalizó.
{ttweet}
- Detalles
- Categoría: Tecnología
Nistela Villaseñor
México, D.F., 1 de diciembre 2015.- (aguzados.com).- Hace más de 60 años, el código de barras revolucionó la identificación y captura de datos de productos comerciales en supermercados y tiendas de ropa en Estados Unidos y, posteriormente, en el mundo entero. Ahora y desde el 2003, el código de barras de la vida es una herramienta que facilita el proceso de identificación de las especies alrededor de todo el planeta.
Lo anterior lo anunció la doctora Lidia Irene Cabrera Martínez, encargada del Laboratorio de Sistemática Molecular del Departamento de Botánica de la Universidad Nacional Autónoma de México (UNAM), quien destacó la importancia de apresurar el proceso de inventariado del planeta, por los graves problemas que afectan la biota —como el cambio climático—, así como por el acelerado proceso de destrucción del hábitat por crecimiento poblacional.
Cabrera Martínez, quien pertenece a la Red Temática de Código de Barras de la Vida (Mexbol) financiada por el Consejo Nacional de Ciencia y Tecnología (Conacyt), aseguró que existe una gran cantidad de especies no reconocidas aún, por lo que la labor de la red ha sido utilizar, como herramienta, "un pequeño fragmento del ADN de cada organismo, para llegar a la identificación de diferentes especies, ya sean animales, plantas, hongos o microorganismos".
México participa en una iniciativa internacional en la que no solo identifica e inventaría la biodiversidad, sino que también está creando una biblioteca de referencia en Internet, que cualquier persona con curiosidad por una especie puede consultar. "El fragmento de hoja que tenga en su jardín, o de la escama de algún pez, o de un pelo de algún mamífero, puede llevarlo a un laboratorio, que le hagan la secuencia, compararla en Internet y le digan la posible especie de que se trata", señaló la especialista.
Origen de la red
Mexbol se formó en 2010 y está integrada principalmente por centros que brindan apoyo en las técnicas de secuenciación, así como en la ayuda para la curación de datos: Centro de Investigaciones Biológicas del Noroeste (Cibnor), el Instituto de Biología de la UNAM y El Colegio de la Frontera Sur (Ecosur) unidad Chetumal, mencionó la doctora.
La red está constituida por expertos en taxonomía que conocen los organismos y están dedicados a su inventariado, "pero también instituciones con capacidad para generar secuencias pueden integrarse y ayudarnos a acelerar el proceso, ya que esto se necesita de forma rápida; también personas que están en localidades podrían ayudar colectando muestras con ciertas características: información de dónde, cómo y cuándo la colectó", indicó Cabrera Martínez.
La iniciativa trata de integrar a mucha gente, dijo la experta. "He tenido en el laboratorio alumnos de secundaria que me han ayudado a generar las secuencias. Hay un caso en Nueva York, de alumnos de bachillerato que se dieron a la tarea de ver si las bolsitas de tés que vendían allá tenían nada más manzanilla, y después de que muestrearon varios tipos, varias marcas, encontraron que 35 por ciento de esos tés tenía algo más que manzanilla. En esa forma nos pueden ayudar".
Cabrera Martínez destacó la importancia de los parataxónomos, personas que son entrenadas en campos para colectar, tomar datos requeridos y preservar muestras.
Uno de los objetivos de la red es divulgar el conocimiento con el fin de concienciar a la población acerca del problema "tan tremendo" de la falta de conocimiento de gran parte de la biodiversidad y también para que se enteren de la labor de las instituciones participantes, en lo particular, y de la red, en lo general, expresó la doctora.
Si contamos con que México es un país megadiverso, la tarea se vuelve compleja pero no imposible, afirmó la doctora. "Los invitamos a que conozcan nuestra página, que nos visiten, que conozcan qué es lo que hacemos, y vean lo megadiverso que es nuestro país, porque no solamente son las plantas y los animales, sino también los insectos. Realmente es ahí donde tenemos que trabajar, en la biodiversidad", concluyó Lidia Irene Cabrera Martínez.
{ttweet}