miércoles, 16 de noviembre de 2016

‘Alba’ dio la vuelta al mundo en 27 festivales



Fernando Criollo

Cuando este viernes 28 de octubre, 'Alba' finalmente se estrene en los cines comerciales del Ecuador, la película ecuatoriana también estará proyectándose en festivales de cine en París, Berlín y Morelia.

La ópera prima de Ana Cristina Barragán llega a la cartelera nacional tras seis años de trabajo y un recorrido por 27 festivales internacionales de cine, en los cuales ha ganado 13 premios hasta el momento.

La película sigue la historia de Alba, una niña de 11 años, que tras el quebrando en la salud de su madre queda al cuidado de su padre, al que no ha visto en años, mientras batalla con una serie de conflictos propios de su edad.

Barragán desarrolló este largometraje a partir del guión que fue el proyecto de tesis con el que se graduó de la Universidad San Francisco de Quito, en el 2010. La historia fue madurando entre revisiones, talleres y laboratorios de cine, mientras se iban levantando fondos para la producción.

Para la directora, el relato responde a un interés personal por explorar esta etapa de transición entre la niñez y la adolescencia, como un momento de grandes cambios que llegan a ser decisivos en la construcción de una identidad.

Para poner en escena esta historia, la directora buscaba una niña con una sensibilidad especial, que pueda transmitir esa sensación entre "la belleza y la angustia de crecer".

Tras una búsqueda de cuatro meses, Macarena Arias fue escogida para interpretar a Alba, entre más de 600 niñas que acudieron al 'casting'. "Buscábamos una niña muy sensible e inteligente, que transmita una simpatía emocional, más allá de su apariencia", dice la productora Isabella Parra sobre las características que buscaban para el protagónico.

Antes de su debut en el cine, la pequeña actriz trabajó en la exploración de emociones personales junto a la directora, que se tradujo en un potente lenguaje gestual y corporal frente a la cámara, durante las seis semanas que duró el rodaje, en el verano del 2013.

Como una estrategia de difusión, la película también se estrenará en la televisión próximamente."La idea es que la película se pueda difundir a un público más amplio y que esos comentarios también atraigan más espectadores a las salas de cine", explicó Christian Obando, de Trópico Cine, empresa que tiene los derechos de distribución del filme en el país.

Los premios a Mejor largometraje de ficción, Mejor actriz y el Premio Cinecolor son los más recientes reconocimientos de la cinta que también fue escogida para representar al Ecuador en la selección de nominaciones a los premios Goya 2017.




Fuente






lunes, 29 de agosto de 2016

La contaminación afecta a los niños de Quito

Valeria Sorgato

La pared de la carótida de los niños en Quito que vivían entre los 0 y 100 metros de una vía muy transitada (más de 10 0000 vehículos diarios) era 15% más gruesa que la de los niños que residían a más de 200 metros de la carretera. Esta fue una de las conclusiones de un estudio con datos recolectados en el 2010 (la información se analizó en un tiempo aproximado de cuatro años) y publicado recientemente por científicos ecuatorianos e internacionales de la Universidad Central del Ecuador, la Universidad de Texas y la Universidad de Nuevo México.

Los vehículos emiten diferentes tipos de gases tóxicos a la atmósfera. René Parra, profesor de la Universidad San Francisco de Quito (USFQ) y que no estuvo ligado a la investigación, explica que las partículas finas PM 2,5 -que son 20 veces más pequeñas que el grosor de un cabello- son una mezcla de moléculas tales como: CO2, CO, NO, carbón, ozono y otros productos secundarios como nitratos y ácidos orgánicos e inorgánicos.

Existen partículas 25 veces más finas que las PM 2,5 y son las más peligrosas porque llegan con más facilidad a cualquier parte del cuerpo. Según Rodrigo Armijos, el autor del estudio, muy pocas ciudades en el mundo monitorean estas partículas, conocidas como ultrafinas o PM 0,1.

Los científicos investigaron el efecto del PM 0,1 en la pared de la carótida de niños entre 7 y 12 años de tres escuelas en el Camal (el sector más contaminado, según ellos) Cotocollao (medianamente contaminado) y Los Chillos (menos contaminado).

Al respirar, las partículas ultrafinas son transportadas por la sangre hasta las arterias, tal como la carótida. El cuerpo detecta unos compuestos extraños y la grasa en la sangre empieza a acumularse en la pared de la arteria. Esta alteración se la conoce como aterosclerosis y con el tiempo resulta en infartos del cerebro o corazón.

Si bien otros factores como la dieta y el sedentarismo también influyen en el desarrollo de enfermedades cerebrovasculares, la Agencia Internacional de Energía señala que las partículas finas son responsables de 6,5 millones de muertes en el mundo cada año.

Los expertos estiman que 600 millones de ciudadanos, la mayoría niños, a escala global están expuestos constantemente a la polución del aire proveniente de los vehículos. En Quito, un estudio de la Facultad de ingeniería Ambiental de la USFQ sostiene que el 82,5% de PM 2,5 son emitidas por vehículos a diésel.

Uno de los principales problemas de la contaminación del aire en el Ecuador es que la mala calidad del combustible fósil no permite tener buses con tecnología moderna. "Para tener buses que no contaminen y sean de una buena tecnología como aquellos de Euro 6 se necesita un combustible de 10 ppm (partículas por millón de azufre), mientras que nosotros utilizamos uno de 500 ppm", dice Liliana Lugo, directora de políticas y planeamiento ambiental de la Secretaría del Ambiente de la ciudad.

La contaminación afecta a todos. Este primer estudio en niños sobre los efectos de la polución permite prevenir y revertir las enfermedades a temprana edad. Una dieta antioxidante, deporte y taparse la nariz y boca en la calle son algunos consejos de Armijos.


Fuente

lunes, 28 de marzo de 2016

The Modern Face of Master Data

Let’s start with the obvious: We’re already drowning in data, and it just keeps coming. We need to gather, store, collate and analyze it, because we know it contains intelligence that can guide ongoing and future initiatives. One invaluable tool in that effort is Master Data Management (MDM): It brings together different policies, standards, mandates, processes and even technologies underpinning the core data to provide a single point of reference. That makes it ideal for companies submerged in data and looking to make better use of it.

So why isn’t that happening? Why does MDM seem like a legacy discipline? And what can we do about it?

One obstacle is the sheer dynamism of the industry. Exciting as it is, the constant emergence of new technologies, each enabling more data in different formats, makes it inevitable that some traditional technologies and processes supporting MDM just can’t keep pace. It can actually have the opposite effect: It devours IT resources and hurts other business initiatives. That’s one reason why many organizations have deployed multiple MDM programs, leading to exactly the kind of information silos that this advance was intended to eliminate.

Meanwhile, the data (and the number of data formats) keeps mounting, which means the critical task of developing actionable intelligence from different data sources—such as, for example, identifying key relationships between different customer subsets—gets more difficult each passing day.

Consumer-Enterprise: Bridging the Divide

Here’s a different perspective on the problem, and perhaps a path forward.

MDM originated in the enterprise arena, with extensions for different verticals, like life sciences. This is a world where untangling relationships between healthcare professionals and organizations—each with a complex web of plans and players—can provide a significant competitive advantage. However, mastering that massive dataset to gain a single view of the customer or product just isn’t enough: It requires comprehensive access to data from all the different areas of the organization, and a holistic view of the entire business to support multi-channel or omni-channel strategies. Meanwhile, there are other complications. We’ve got regulatory mandates to worry about, and data assets represent a potential revenue stream, to name two.

This is just one reason why so many MDM-only tools can’t do the job. They need to be supplemented with software programs that better enable data quality, enable governance, ensure self-service BI and analytics, etc. All that is so enterprise, but now consider the consumer angle. It’s easy to dismiss any similarity between the relative trivia of, say, LinkedIn or Facebook and the complexity inherent in industry-specific MDM systems, but that’s really the point.

Those services and others like them provide effortless access to—and management of—all types, not just master data, in the form of profile information, as well as transaction, interaction, and social data, all within the same application.

In fact, they uncover rich relationships and connections across people, products, and organizations, while using the information to predict and recommend the best course of action.

There are no SQL queries, and no need to understand the underlying data model or data structures. Business users get relevant insights, and recommended actions before even asking the question, directly from a single application.

And again, before dismissing it as trivia, let’s remember that these applications blend both analytical and operational capabilities, and continuously scale to handle millions of records in real time. In fact, the data volumes involved are staggering. They also deliver new capabilities seamlessly to improve user experience and productivity on a regular basis across a wide range of devices.

That’s modern data management. It encompasses the traditional role of Master Data Management but also incorporates Big Data, social media, event data and whole lot more.

Back to the Enterprise

This is the future of MDM: It should adhere to the Facebook and LinkedIn paradigm for B2B data management and data-driven applications. It’s a component of a wider modern data management platform, and it’s directly integrated with data-driven applications.

It builds on core MDM strengths such as address cleansing, match, and merge and applies them dynamically to data from internal and external sources, specifically as a component of an enterprise data-driven application. That’s how it can ensure reliable data, governance, role-level security, visibility, and more. Indeed, as with the consumer world, social and collaborative curation and feedback increases the value and use of the data.

Of course, the fundamental purpose or this discipline is to guide business initiatives. Appropriate context must be built in to offer business teams the insights and recommendations they need. In particular scenarios, they can add to data generation by submitting their own updates and ratings. (That, in essence, is the equivalent of a Facebook like or LinkedIn recommendation.)

Visibility—in the literal sense, the key to making the findings easier for more users to understand—is equally important. For example, one common technology thread in those consumer-facing applications is graph databases. Graphs highlight complex and evolving relationships between many different types of entities, and makes them more comprehensible than traditional relational databases ever did. For the record, most off-the-shelf graph databases are unable to handle the data volume, variety and velocity. However, the most scalable enterprise data management platforms use a blend of columnar and graph NoSQL hybrid technology.

Remember, it’s been a long time since MDM entered the mainstream, and it gained attention by promising a 360-degree view of corporate data. Yet after all this time, most of the offerings on the market focus on, and manage, master data only. Many use them for a single customer domain, with product and other entities managed separately, if at all. The creation of a 360-degree view, with the accompanying interpretation of complex relationships and affiliations, remains a separate effort.

Moving forward, MDM can offer tremendous benefits as a component of a modern data management platform, fully integrated with data-driven applications and delivering fast time-to-value across the enterprise. But without a high level of modernization that adapts freely from consumer equivalents, it’s headed toward legacy status.

 

Source