Archivos para septiembre, 2013

Comentarios prácticos a la Propuesta de Reglamento de Protección de Datos de la Unión Europea

A la hora de empezar a escribir cualquier documento, lo más complicado es el momento en que te enfrentas a la hoja en blanco. Por esa razón, he querido dejar esta parte para el final, una vez que estuviese todo el libro acabado.

Le he dado bastantes vueltas a qué contenido debería incluir en este apartado. Lo más lógico es que hubiese hecho un breve resumen desde el momento en que se hizo pública la Propuesta de Reglamento de Protección de Datos, que para los profesionales de esta materia ha supuesto un impulso al respecto, pero prefiero contarles el planteamiento de este libro. Como su nombre indica, lo he enfocado desde un punto de vista muy práctico.

De manera que he realizado comparaciones entre la Propuesta de Reglamento y nuestro régimen jurídico de protección de datos vigente, la Directiva 95/46, informes jurídicos y resoluciones de la AEPD, así como cuadros comparativos y explicativos. Todo ello, en relación a los últimos debates sobre la privacidad, como el Big Data, el derecho al olvido, el Cloud Computing, Videovigilancia, la publicidad comportamental o las Apps.

Además, el carácter práctico se manifiesta porque he acudido y citado a compañeros profesionales “del dato”, concretamente, a sus blogs, ya que a través de ellos muestran con sus opiniones esa aplicación práctica de la normativa de protección de datos personales. En numerosas ocasiones también he recurrido a los Dictámenes del Grupo del Artículo 29, porque parte de la Propuesta de Reglamento está inspirada en los mismos. Además, en este Grupo están representadas todas las Autoridades de Control Europeas, que a fin de cuentas, son las encargadas de interpretar y aplicar las normas de protección de datos.

Asimismo, encontrarán que he transcrito numerosos artículos no sólo de las normas anteriormente citadas sino también de otras. La finalidad, no es realizar una mera acumulación de hojas (habría sido feliz escribiendo igualmente 200), sino que se pueda entender lo que estoy exponiendo, pudiendo el lector acudir sin esfuerzo a conocer el artículo de la norma que cito. 8 Obviamente, buena parte de los artículos y considerandos transcritos corresponden a la Propuesta de Reglamento, si bien he ido “jugando con ellos”:

los importantes aparecen en el texto principal, y los que no, como pies de página. Y por supuesto, mis comentarios y opiniones. También me he nutrido de algunos artículos que he escrito en mis blogs, porque si algo aprendí en mis años de la APDCM, es que cuando haces algo puedes usarlo para varios cosas. Lo llamábamos retroalimentación.

Por último, quizás lo más importante, y que he dejado para el final, donde creo que radica la principal novedad a la que hice alusión antes: cuando empecé a escribir el libro me puse como regla que cualquier documento que consultase o citase debería estar disponible en la red. No tendría sentido escribir un libro sobre una norma que afecta a las tecnologías de información y utilizar los tradicionales libros, ya que además, no permitiría al lector poder consultarlos sino es comprándolos. Ahora sólo queda que lo lean, y les guste. Como dicen en Europa, nunca mejor dicho, “The room is yours!”.

http://www.privacidadlogica.es/wp-content/uploads/2013/09/comentarios-reglamento-pdatos_Javier-Sempere-Samaniego.pdf

In August, Google open sourced a tool called word2vec that lets developers and data scientists experiment with language-based deep learning models. Now, the company has published a research paper showing off another use for the technology — automatically detecting the similarities between different languages to create, for example, more accurate dictionaries.

The method works by analyzing how words are used in different languages and representing those relationships as vectors on a two-dimensional graph. Obviously, a computer doesn’t need a visualization to understand the results of the computations, but this one from the paper is instructive in showing the general idea of what the technique does.

Imagen

Here’s how authors Tomas Mikolov, Quoc V. Le and Ilya Sutskever describe the concept and the chart:

“In Figure 1, we visualize the vectors for numbers and animals in English and Spanish, and it can be easily seen that these concepts have similar geometric arrangements. The reason is that as all common languages share concepts that are grounded in the real world (such as that cat is an animal smaller than a dog), there is often a strong similarity between the vector spaces. The similarity of geometric arrangments in vector spaces is the key reason why our method works well.”

The actual techniques they used were the Skip-gram and Continuous Bag of Words models, which are the same ones exposed by word2vec. The authors describe them thusly:

“The training objective of the CBOW model is to combine the representations of surrounding words to predict the word in the middle. … Similarly, in the Skip-gram model, the training objective is to learn word vector representations that are good at predicting its context in the same sentence. … It is unlike traditional neural network based language models … where the objective is to predict the next word given the context of several preceding words.”

Here’s how I explained their general functionality when covering the word2vec release:

“Its creators have shown how it can recognize the similarities among words (e.g., the countries in Europe) as well as how they’re related to other words (e.g., countries and capitals). It’s able to decipher analogical relationships (e.g., short is to shortest as big is to biggest), word classes (e.g., carnivore and cormorant both relate to animals) and “linguistic regularities” (e.g., “vector(‘king’) – vector(‘man’) + vector(‘woman’) is close to vector(‘queen’)).”

You can see the power of the translation application of these models even when they’re not entirely accurate. One example they note in translating words from Spanish to English is “imperio.” The dictionary entry is “empire,” but the Google system suggested conceptually similar words: “dictatorship,” “imperialism” and “tyranny.” Even if the model can’t replace a dictionary (in fact, the authors note, dictionary entries for English to Czech translations were as accurate or more accurate 85 percent of the time), it could certainly act as a thesaurus or understand the general theme of a foreign text.

Imagen

There are clear implications to this type of research for Google, which wants to make searchable and understandable the vast amount of data (search, web pages, photos, YouTube videos, etc.) it’s collecting, and also is banking on speech recognition as major point of distinction for its mobile device business. I think you can see some of this work paying off in the new search algorithms and features Google announced on ThursdayAlchemyAPI Founder and CEO Elliot Turner noted to me recently that the same vector representations Google is using on text could also be used on photos and videos, theoretically categorizing them based on the similarity of their content.

Google isn’t the only company working on new deep learning techniques or applications, either. Companies such as Ersatz and the aforementioned AlchemyAPI are exposing the technology as commercial products, and web companies like Baiduand Microsoft are hard at work on their own research efforts.

This report underwitten by: LucidWorks

In markets from financial services and retail to manufacturing and health care, companies are rushing to embrace the promise of big data. By tracking ever more data, managers hope to understand both their businesses and the ways in which customers interact with them. But simply collecting terabytes of data to produce charts and corporate dashboards misses the true scale of the opportunity. Effective data-based decisions are not made in response to simplistic data reporting; they are made in response to considered and ongoing data analysis. This paper explores the potential of data-driven decision making and considers the role that effectively analyzed big data can play in delivering insight and business value.

The report addresses the following issues:

  • The definition of data-driven decision making
  • The five-step process called the “data to decisions framework”
  • Data-driven decision making does not necessarily require data volumes such as those typically associated with big data
  • The definition of big data
  • The difference between structured and unstructured data
  • How big data can drive smarter decision making
  • The big questions to ask

http://pro.gigaom.com/report/how-to-use-big-data-to-make-better-business-decisions/?utm_source=data&utm_medium=editorial&utm_campaign=auto3&utm_term=695849+how-deep-learning-can-teach-computers-spanish-without-a-tutor&utm_content=dharrisstructure

4o Videos Tuoriales de hacking!

Publicado: septiembre 29, 2013 en Uncategorized
Etiquetas:

4o Videos Tuoriales de hacking!

HACKxcRACK

Ciberseguridad una responsabilidad de todos

ISACA Madrid, en el marco del Mes Europeo de la Ciberseguridad, ha preparado un evento en el que pretende contribuir a esta campaña de concienciación para promover la ciber seguridad entre los ciudadanos con el objetivo de cambiar su percepción de las ciber-amenazas y para proporcionarles información actualizada en esta materia, así como buenas prácticas. Por dicho motivo, la temática de la Jornada versará sobre la propuesta de Directiva Europea para la Seguridad de los Sistemas de Información y de las Redes como eje vertebral que persigue la ciber seguridad en la Unión Europea.

Todo acerca del BitCoin

Publicado: septiembre 29, 2013 en Uncategorized
Etiquetas:

Todo acerca del BitCoin