Your address will show here +12 34 56 78
NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

NOTICIA

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || [];
_giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»});
var g = document.createElement(«script»);
g.async = true;
g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s);
GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos


Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


La noticia

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

fue publicada originalmente en

Genbeta

por
Gabriela González

.

0

Maxim Huerta

El Gobierno de Pedro Sánchez no deja de darnos sorpresas. Tras conocer que Carmen Montón y Pedro Duque serán ministros, ayer descubríamos que la cartera de Cultura recaía en el periodista y escritor Màxim Huerta.

Carlota Navarrete, directora general de la Coalición de Creadores, ha afirmado estar «expectante» por conocer cómo será la gestión del nuevo ministro de Cultura y Deporte, un cargo que ha generado muchos comentarios en Internet.

Como siempre, hay que tener cuidado con lo que se publica en las redes sociales, ya que con el paso de los años podrían ser armas de doble filo que se pueden utilizar en nuestra contra:

Con este tweet justificaba sus publicaciones anteriores:

«Huerta siempre se ha manifestado en contra de la piratería»

En declaraciones a Europa Press, Navarrete afirma que espera que el nuevo ministro sea capaz de dar un «impulso determinante» a la lucha contra la piratería:

«Vamos a valorar siempre lo que hace y no previamente. En lo que afecta a piratería tiene las cosas muy claras, esperemos que ahora que tiene la posibilidad de marcar una mejora importante, que lo haga».

La directora general de la Coalición de Creadores ha enfatizado que el nuevo ministro de Cultura «siempre» se ha manifestado «en contra de la piratería». Una prueba la podemos encontrar en este artículo publicado por Màxim Huerta en El Español en el año 2016, titulado «pirata no, ladrón».

«Pirata no, ladrón».

Navarrete reconoce que en este aspecto «hemos mejorado un poquito» pero deben tomarse «decisiones drásticas y rápidas».

Por si fuera poco, Navarrete también apuntó que la «piratería es economía porque destruye ingresos al Estado», siendo una «pérdida de empleo» que «erosiona y perjudica a todo el sector estratégico de la cultura en general».

En Genbeta | Condenan a Deliveroo por emplear a «falsos autónomos»

También te recomendamos


Las «fake news» tienen un 70 % más de probabilidades de ser replicadas que las noticias verdaderas según un estudio


De «Disney» a «cambiar la ley»: estos son los términos que China bloquea en su red social Weibo


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La noticia

Coalición de Creadores pide a Maxim Huerta que actúe «rápida y drásticamente» contra la piratería

fue publicada originalmente en

Genbeta

por
Santi Araújo

.

0

Maxim Huerta

El Gobierno de Pedro Sánchez no deja de darnos sorpresas. Tras conocer que Carmen Montón y Pedro Duque serán ministros, ayer descubríamos que la cartera de Cultura recaía en el periodista y escritor Màxim Huerta.

Carlota Navarrete, directora general de la Coalición de Creadores, ha afirmado estar «expectante» por conocer cómo será la gestión del nuevo ministro de Cultura y Deporte, un cargo que ha generado muchos comentarios en Internet.

Como siempre, hay que tener cuidado con lo que se publica en las redes sociales, ya que con el paso de los años podrían ser armas de doble filo que se pueden utilizar en nuestra contra:

Con este tweet justificaba sus publicaciones anteriores:

«Huerta siempre se ha manifestado en contra de la piratería»

En declaraciones a Europa Press, Navarrete afirma que espera que el nuevo ministro sea capaz de dar un «impulso determinante» a la lucha contra la piratería:

«Vamos a valorar siempre lo que hace y no previamente. En lo que afecta a piratería tiene las cosas muy claras, esperemos que ahora que tiene la posibilidad de marcar una mejora importante, que lo haga».

La directora general de la Coalición de Creadores ha enfatizado que el nuevo ministro de Cultura «siempre» se ha manifestado «en contra de la piratería». Una prueba la podemos encontrar en este artículo publicado por Màxim Huerta en El Español en el año 2016, titulado «pirata no, ladrón».

«Pirata no, ladrón».

Navarrete reconoce que en este aspecto «hemos mejorado un poquito» pero deben tomarse «decisiones drásticas y rápidas».

Por si fuera poco, Navarrete también apuntó que la «piratería es economía porque destruye ingresos al Estado», siendo una «pérdida de empleo» que «erosiona y perjudica a todo el sector estratégico de la cultura en general».

En Genbeta | Condenan a Deliveroo por emplear a «falsos autónomos»

También te recomendamos


Las «fake news» tienen un 70 % más de probabilidades de ser replicadas que las noticias verdaderas según un estudio


De «Disney» a «cambiar la ley»: estos son los términos que China bloquea en su red social Weibo


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La noticia

Coalición de Creadores pide a Maxim Huerta que actúe «rápida y drásticamente» contra la piratería

fue publicada originalmente en

Genbeta

por
Santi Araújo

.

0

Maxim Huerta

El Gobierno de Pedro Sánchez no deja de darnos sorpresas. Tras conocer que Carmen Montón y Pedro Duque serán ministros, ayer descubríamos que la cartera de Cultura recaía en el periodista y escritor Màxim Huerta.

Carlota Navarrete, directora general de la Coalición de Creadores, ha afirmado estar «expectante» por conocer cómo será la gestión del nuevo ministro de Cultura y Deporte, un cargo que ha generado muchos comentarios en Internet.

Como siempre, hay que tener cuidado con lo que se publica en las redes sociales, ya que con el paso de los años podrían ser armas de doble filo que se pueden utilizar en nuestra contra:

Con este tweet justificaba sus publicaciones anteriores:

«Huerta siempre se ha manifestado en contra de la piratería»

En declaraciones a Europa Press, Navarrete afirma que espera que el nuevo ministro sea capaz de dar un «impulso determinante» a la lucha contra la piratería:

«Vamos a valorar siempre lo que hace y no previamente. En lo que afecta a piratería tiene las cosas muy claras, esperemos que ahora que tiene la posibilidad de marcar una mejora importante, que lo haga».

La directora general de la Coalición de Creadores ha enfatizado que el nuevo ministro de Cultura «siempre» se ha manifestado «en contra de la piratería». Una prueba la podemos encontrar en este artículo publicado por Màxim Huerta en El Español en el año 2016, titulado «pirata no, ladrón».

«Pirata no, ladrón».

Navarrete reconoce que en este aspecto «hemos mejorado un poquito» pero deben tomarse «decisiones drásticas y rápidas».

Por si fuera poco, Navarrete también apuntó que la «piratería es economía porque destruye ingresos al Estado», siendo una «pérdida de empleo» que «erosiona y perjudica a todo el sector estratégico de la cultura en general».

En Genbeta | Condenan a Deliveroo por emplear a «falsos autónomos»

También te recomendamos


Las «fake news» tienen un 70 % más de probabilidades de ser replicadas que las noticias verdaderas según un estudio


De «Disney» a «cambiar la ley»: estos son los términos que China bloquea en su red social Weibo


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


La noticia

Coalición de Creadores pide a Maxim Huerta que actúe «rápida y drásticamente» contra la piratería

fue publicada originalmente en

Genbeta

por
Santi Araújo

.

0

Maxim Huerta

El Gobierno de Pedro Sánchez no deja de darnos sorpresas. Tras conocer que Carmen Montón y Pedro Duque serán ministros, ayer descubríamos que la cartera de Cultura recaía en el periodista y escritor Màxim Huerta.

Carlota Navarrete, directora general de la Coalición de Creadores, ha afirmado estar «expectante» por conocer cómo será la gestión del nuevo ministro de Cultura y Deporte, un cargo que ha generado muchos comentarios en Internet.

Como siempre, hay que tener cuidado con lo que se publica en las redes sociales, ya que con el paso de los años podrían ser armas de doble filo que se pueden utilizar en nuestra contra:

Con este tweet justificaba sus publicaciones anteriores:

«Huerta siempre se ha manifestado en contra de la piratería»

En declaraciones a Europa Press, Navarrete afirma que espera que el nuevo ministro sea capaz de dar un «impulso determinante» a la lucha contra la piratería:

«Vamos a valorar siempre lo que hace y no previamente. En lo que afecta a piratería tiene las cosas muy claras, esperemos que ahora que tiene la posibilidad de marcar una mejora importante, que lo haga».

La directora general de la Coalición de Creadores ha enfatizado que el nuevo ministro de Cultura «siempre» se ha manifestado «en contra de la piratería». Una prueba la podemos encontrar en este artículo publicado por Màxim Huerta en El Español en el año 2016, titulado «pirata no, ladrón».

«Pirata no, ladrón».

Navarrete reconoce que en este aspecto «hemos mejorado un poquito» pero deben tomarse «decisiones drásticas y rápidas».

Por si fuera poco, Navarrete también apuntó que la «piratería es economía porque destruye ingresos al Estado», siendo una «pérdida de empleo» que «erosiona y perjudica a todo el sector estratégico de la cultura en general».

En Genbeta | Condenan a Deliveroo por emplear a «falsos autónomos»

También te recomendamos


Las «fake news» tienen un 70 % más de probabilidades de ser replicadas que las noticias verdaderas según un estudio


Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)


De «Disney» a «cambiar la ley»: estos son los términos que China bloquea en su red social Weibo


La noticia

Coalición de Creadores pide a Maxim Huerta que actúe «rápida y drásticamente» contra la piratería

fue publicada originalmente en

Genbeta

por
Santi Araújo

.

0

PREVIOUS POSTSPage 1 of 2NO NEW POSTS