Attack Roadmap of APT-type Malware

If the APT-attack is developed in this way, the overall espionage function ∀ (E) can be represented as function of:
 
∀ (E) = ƒ [I0 ⇒ P1] + ƒ [(I0 + I1) ⇒ P1] + ƒ [(I0 + I1+ I2) ⇒ P2] + … + ƒ [(I0 + I1+ I+ …It) ⇒ Pt-1]
           
Where, E is the espionage function, ƒ [*] represents the key function of payload (P1) and [I0 ⇒ P1] represents the payload selected for download after collected information (I0) has been studied or a particular event happens. The t represents the time the APT-type malware is detected and removed from the victim’s system.
Anuncios

Enlace  —  Publicado: diciembre 15, 2013 en Uncategorized
Etiquetas:, ,

Tracing APT_163QQ

However, I want to present the findings of some status quo of the attack patterns of these APT groups.  Also, I want to demonstrate that the scope of malware forensics should not be limited to the technical analysis of binary or the malicious file itself, we have to study the motives and the modus operandi of the attackers in order to locate their footprints.

Enlace  —  Publicado: diciembre 15, 2013 en Uncategorized
Etiquetas:

WebAnno: A Flexible, Web-based and Visually Supported System for Distributed Annotations

We present WebAnno, a general purpose web-based annotation tool for a wide range of linguistic annotations. WebAnno offers annotation project management, freely configurable tagsets and the management of users in different roles. WebAnno uses technology from the brat rapid annotation tool for visualizing and editing annotations in a web browser. It supports annotation and visualization of arbitrarily large documents, pluggable import/export filters, the curation of annotations across various users, and farming out annotations to a crowdsourcing platform.

 

Currently, WebAnno allows POS, Named Entity, Dependency Parsing and co-reference resolution annotations. The architecture design allows to add additional modes of visualization and editing, when new kinds of annotations are to be supported.

The added value of WebAnno, as compared to previous annotation tools, is on the one hand constituted by its web-based interface to skilled as well as unskilled annotators, which unlocks a potentially very large workforce. On the other hand, the tool’s support functionality for quality control and annotator management and curation lowers the entrance barrier for new annotation projects.

We created WebAnno to fulfill the following requirements:

  • Flexibility: Support of several annotation layers, several import and export formats, and extendibility to other frontends.
  • Web-based: Increased availability, distributed work, no installation effort.
  • Open Source: Usability of our tool in future projects without restrictions, under the Apache 2.0 license.
  • Quality and User Management: Integrated different user roles (administrator, annotator, and curator) support for several users, inter-annotator agreement measurement, data curation, and progress monitoring.
  • Interface to Crowdsourcing: unlocking a very large distributed workforce.
  • Pre-annotated and un-annotated documents: supporting new annotations, as well as manual corrections of automatic annotations.

 

This project is work in progress. Some features may be in an early prototype state or not available at all yet. That said, we already use WebAnno in some annotation projects! 🙂

Reference

If you use WebAnno in scientific work, please cite

Yimam, S.M., Gurevych, I., Eckart de Castilho, R., and Biemann C. (2013): WebAnno: A Flexible, Web-based and Visually Supported System for Distributed Annotations. In Proceedings of ACL-2013, demo session, Sofia, Bulgaria. (pdf) (bib)

Enlace  —  Publicado: diciembre 10, 2013 en Uncategorized

Estrategias nacionales de ciberseguridad en el mundo

Bajo estas líneas se muestra una recopilación de las principales estrategias de ciberseguridad nacionales y supranacionales a fecha de 8 de diciembre de 2013. Para facilitar su estudio, han sido clasificadas por continentes.

Para acceder a la información detallada, es necesario hacer click sobre la imagen de la bandera…

Enlace  —  Publicado: diciembre 10, 2013 en Uncategorized
Etiquetas:, ,

Conpot (ICS/SCADA Honeypot)

El estudio realizado por los investigadores en seguridad en una de sus facetas se base en el basarse en los resultados arrojados por un.

Existen HomeyPots para diferentes escenarios, simulando SSH, SNMP, un servicio HTTP vulnerable etc..

El de hoy es algo especial, ya que se trata de un HoneyPot que simula ser un servicio ICS/. Ha habido varios incidentes relacionados con los , por no decir que hay algunos de los que se encuentran expuestos en Internet.

¿Incidentes relacionados con Scada?

Pues por ejemplo: “En junio de 2010, Irán sufrió un severo ataque a parte de infraestructura crítica, principalmente a sus reactores nucleares, a través de un virus denominado Stuxnet, que contaminó el software denominado SCADA  (Supervisores de Control y de Adquisición de Datos) utilizada por aquel país, vía un USB que fue introducido a las computadoras por uno de los trabajadores.”

Enlace  —  Publicado: diciembre 10, 2013 en Uncategorized
Etiquetas:, ,

SECURIZACIÓN DE CENTOS LINUX

Tiempo atrás me pidió Karanbir Singh, uno de los líderes de desarrollo y mantenimiento de CentOS, que le gustaría invitarme a participar como ponente en un evento temático de CentOS, que se daría en Madrid. En mi caso, se trataría de hablar de securización de distribuciones CentOS, aunque realmente, el contenido de lo que expuse es aplicable a prácticamente cualquier Linux.
 
En mi caso, venía llegando de un viaje relámpago desde Bogotá, y no me dio tiempo a asistir al evento entero, por lo que cuando llegué los asistentes estaban esperando únicamente por mi charla. Se supone que las charlas serían en inglés y que se retransmitiría por el canal youtube de CentOS. Finalmente, varias de las charlas se dieron en español, y la mía me la pidieron en el idioma de Cervantes cuando me tocó darla.
 
Desde mi punto de vista, fue una charla muy divertida y muy enriquecedora para mí, puesto que los asistentes tenían una gran experiencia en CentOS y contribuyeron con un montón de conocimiento a la misma, aportando la interactividad y la participación del público, un valor muchísimo mayor que lo que yo iba a contar ese día. 
 
Sois muchos los que me habéis escrito pidiéndome las slides y el enlace al video de la presentación, por lo que directamente os la comparto en el blog para el que quiera pegarse un par de horas escuchando hablar de seguridad en CentOS.

Empieza en el minuto 2:17, aunque el hangout empezó a grabar un rato antes…

Enlace  —  Publicado: diciembre 10, 2013 en Uncategorized
Etiquetas:,

Microsoft Security Intelligence Report v15

Troyanos, Trojan Downloaders & Droppers y Exploits, son las tres mayores amenazas de seguridad en España, según el informe de seguridad Security Intelligence Report v15 de Microsoft.

El informe SIR 15 analizó datos de más de 1.000 millones de sistemas en todo el mundo, en 100 países, durante el primer semestre del año, presentando una radiografía pormenorizada de las amenazas on-line existentes.

Enlace  —  Publicado: diciembre 10, 2013 en Uncategorized
Etiquetas:,

Comentarios prácticos a la Propuesta de Reglamento de Protección de Datos de la Unión Europea

A la hora de empezar a escribir cualquier documento, lo más complicado es el momento en que te enfrentas a la hoja en blanco. Por esa razón, he querido dejar esta parte para el final, una vez que estuviese todo el libro acabado.

Le he dado bastantes vueltas a qué contenido debería incluir en este apartado. Lo más lógico es que hubiese hecho un breve resumen desde el momento en que se hizo pública la Propuesta de Reglamento de Protección de Datos, que para los profesionales de esta materia ha supuesto un impulso al respecto, pero prefiero contarles el planteamiento de este libro. Como su nombre indica, lo he enfocado desde un punto de vista muy práctico.

De manera que he realizado comparaciones entre la Propuesta de Reglamento y nuestro régimen jurídico de protección de datos vigente, la Directiva 95/46, informes jurídicos y resoluciones de la AEPD, así como cuadros comparativos y explicativos. Todo ello, en relación a los últimos debates sobre la privacidad, como el Big Data, el derecho al olvido, el Cloud Computing, Videovigilancia, la publicidad comportamental o las Apps.

Además, el carácter práctico se manifiesta porque he acudido y citado a compañeros profesionales “del dato”, concretamente, a sus blogs, ya que a través de ellos muestran con sus opiniones esa aplicación práctica de la normativa de protección de datos personales. En numerosas ocasiones también he recurrido a los Dictámenes del Grupo del Artículo 29, porque parte de la Propuesta de Reglamento está inspirada en los mismos. Además, en este Grupo están representadas todas las Autoridades de Control Europeas, que a fin de cuentas, son las encargadas de interpretar y aplicar las normas de protección de datos.

Asimismo, encontrarán que he transcrito numerosos artículos no sólo de las normas anteriormente citadas sino también de otras. La finalidad, no es realizar una mera acumulación de hojas (habría sido feliz escribiendo igualmente 200), sino que se pueda entender lo que estoy exponiendo, pudiendo el lector acudir sin esfuerzo a conocer el artículo de la norma que cito. 8 Obviamente, buena parte de los artículos y considerandos transcritos corresponden a la Propuesta de Reglamento, si bien he ido “jugando con ellos”:

los importantes aparecen en el texto principal, y los que no, como pies de página. Y por supuesto, mis comentarios y opiniones. También me he nutrido de algunos artículos que he escrito en mis blogs, porque si algo aprendí en mis años de la APDCM, es que cuando haces algo puedes usarlo para varios cosas. Lo llamábamos retroalimentación.

Por último, quizás lo más importante, y que he dejado para el final, donde creo que radica la principal novedad a la que hice alusión antes: cuando empecé a escribir el libro me puse como regla que cualquier documento que consultase o citase debería estar disponible en la red. No tendría sentido escribir un libro sobre una norma que afecta a las tecnologías de información y utilizar los tradicionales libros, ya que además, no permitiría al lector poder consultarlos sino es comprándolos. Ahora sólo queda que lo lean, y les guste. Como dicen en Europa, nunca mejor dicho, “The room is yours!”.

http://www.privacidadlogica.es/wp-content/uploads/2013/09/comentarios-reglamento-pdatos_Javier-Sempere-Samaniego.pdf

Enlace  —  Publicado: septiembre 29, 2013 en Uncategorized
Etiquetas:

In August, Google open sourced a tool called word2vec that lets developers and data scientists experiment with language-based deep learning models. Now, the company has published a research paper showing off another use for the technology — automatically detecting the similarities between different languages to create, for example, more accurate dictionaries.

The method works by analyzing how words are used in different languages and representing those relationships as vectors on a two-dimensional graph. Obviously, a computer doesn’t need a visualization to understand the results of the computations, but this one from the paper is instructive in showing the general idea of what the technique does.

Imagen

Here’s how authors Tomas Mikolov, Quoc V. Le and Ilya Sutskever describe the concept and the chart:

“In Figure 1, we visualize the vectors for numbers and animals in English and Spanish, and it can be easily seen that these concepts have similar geometric arrangements. The reason is that as all common languages share concepts that are grounded in the real world (such as that cat is an animal smaller than a dog), there is often a strong similarity between the vector spaces. The similarity of geometric arrangments in vector spaces is the key reason why our method works well.”

The actual techniques they used were the Skip-gram and Continuous Bag of Words models, which are the same ones exposed by word2vec. The authors describe them thusly:

“The training objective of the CBOW model is to combine the representations of surrounding words to predict the word in the middle. … Similarly, in the Skip-gram model, the training objective is to learn word vector representations that are good at predicting its context in the same sentence. … It is unlike traditional neural network based language models … where the objective is to predict the next word given the context of several preceding words.”

Here’s how I explained their general functionality when covering the word2vec release:

“Its creators have shown how it can recognize the similarities among words (e.g., the countries in Europe) as well as how they’re related to other words (e.g., countries and capitals). It’s able to decipher analogical relationships (e.g., short is to shortest as big is to biggest), word classes (e.g., carnivore and cormorant both relate to animals) and “linguistic regularities” (e.g., “vector(‘king’) – vector(‘man’) + vector(‘woman’) is close to vector(‘queen’)).”

You can see the power of the translation application of these models even when they’re not entirely accurate. One example they note in translating words from Spanish to English is “imperio.” The dictionary entry is “empire,” but the Google system suggested conceptually similar words: “dictatorship,” “imperialism” and “tyranny.” Even if the model can’t replace a dictionary (in fact, the authors note, dictionary entries for English to Czech translations were as accurate or more accurate 85 percent of the time), it could certainly act as a thesaurus or understand the general theme of a foreign text.

Imagen

There are clear implications to this type of research for Google, which wants to make searchable and understandable the vast amount of data (search, web pages, photos, YouTube videos, etc.) it’s collecting, and also is banking on speech recognition as major point of distinction for its mobile device business. I think you can see some of this work paying off in the new search algorithms and features Google announced on ThursdayAlchemyAPI Founder and CEO Elliot Turner noted to me recently that the same vector representations Google is using on text could also be used on photos and videos, theoretically categorizing them based on the similarity of their content.

Google isn’t the only company working on new deep learning techniques or applications, either. Companies such as Ersatz and the aforementioned AlchemyAPI are exposing the technology as commercial products, and web companies like Baiduand Microsoft are hard at work on their own research efforts.

This report underwitten by: LucidWorks

In markets from financial services and retail to manufacturing and health care, companies are rushing to embrace the promise of big data. By tracking ever more data, managers hope to understand both their businesses and the ways in which customers interact with them. But simply collecting terabytes of data to produce charts and corporate dashboards misses the true scale of the opportunity. Effective data-based decisions are not made in response to simplistic data reporting; they are made in response to considered and ongoing data analysis. This paper explores the potential of data-driven decision making and considers the role that effectively analyzed big data can play in delivering insight and business value.

The report addresses the following issues:

  • The definition of data-driven decision making
  • The five-step process called the “data to decisions framework”
  • Data-driven decision making does not necessarily require data volumes such as those typically associated with big data
  • The definition of big data
  • The difference between structured and unstructured data
  • How big data can drive smarter decision making
  • The big questions to ask

http://pro.gigaom.com/report/how-to-use-big-data-to-make-better-business-decisions/?utm_source=data&utm_medium=editorial&utm_campaign=auto3&utm_term=695849+how-deep-learning-can-teach-computers-spanish-without-a-tutor&utm_content=dharrisstructure