Manual 1
Manual is licensed under a Creative Commons Reconocimiento-NoComercial-CompartirIgual 3.0 Unported License.
viernes, 8 de julio de 2011
domingo, 3 de julio de 2011
ALGORITMOS GENETICOS
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 3.0 Unported License.
domingo, 24 de abril de 2011
Noticia
Electrodoméstico con WiFi
Refrigerador enfría cervezas y actualiza Twitter
[ 21/04/2011 - 17:37 CET ]
Tradicionalmente, el refrigerador ha sido un artefacto que permitía mantener frescos los alimentos y las bebidas.
Diario Ti: Sin embargo, los refrigeradores también deben evolucionar, al menos en opinión de Samsung, que ha lanzado una nueva serie de refrigeradores con puerta doble, con integración a Internet vía WiFi.
En el display del aparato, no sólo puede observarse la temperatura interior de los compartimentos de refrigeración y congelación, sino también puede recibirse notificaciones meteorológicas, actualizaciones de Twitter, noticias de la agencia AP, realizar búsquedas en Google y escuchar música del servicio Pandora.
Una característica destacada por la sudcoreana Samsung es la capacidad del refrigerador de adaptar su consumo eléctrico al uso específico que le dé el usuario.
El refrigerador WiFi será lanzado inicialmente en Estados Unidos, antes incluso de su lanzamiento en el mercado doméstico coreano. Cabe señalar que un refrigerador online no es precisamente una novedad. Ya en marzo de 2002 informábamos sobre un refrigerador con Internet, MP3,TV y radio lanzado por LG. Dos años antes, Electrolux había lanzado una lavadora con teléfono móvil.
En junio de 2000 Kaspersky Labs declaró que "en pocos años los hornos microondas, los congeladores y otros artículos de línea blanca conectados a Internet serán los principales objetivos de los creadores de virus". En su anuncio, Kaspersky advertía que los virus abrirían las puertas de los refrigeradores durante la noche, o activarían la calefacción central durante el verano. Habiendo pasado 11 años desde ese pronóstico, puede concluirse que, al menos los refrigeradores, no han tenido mayor interés para los creadores de virus.
Fuente: AkihabaraNews
Refrigerador enfría cervezas y actualiza Twitter
[ 21/04/2011 - 17:37 CET ]
Tradicionalmente, el refrigerador ha sido un artefacto que permitía mantener frescos los alimentos y las bebidas.
Diario Ti: Sin embargo, los refrigeradores también deben evolucionar, al menos en opinión de Samsung, que ha lanzado una nueva serie de refrigeradores con puerta doble, con integración a Internet vía WiFi.
En el display del aparato, no sólo puede observarse la temperatura interior de los compartimentos de refrigeración y congelación, sino también puede recibirse notificaciones meteorológicas, actualizaciones de Twitter, noticias de la agencia AP, realizar búsquedas en Google y escuchar música del servicio Pandora.
Una característica destacada por la sudcoreana Samsung es la capacidad del refrigerador de adaptar su consumo eléctrico al uso específico que le dé el usuario.
El refrigerador WiFi será lanzado inicialmente en Estados Unidos, antes incluso de su lanzamiento en el mercado doméstico coreano. Cabe señalar que un refrigerador online no es precisamente una novedad. Ya en marzo de 2002 informábamos sobre un refrigerador con Internet, MP3,TV y radio lanzado por LG. Dos años antes, Electrolux había lanzado una lavadora con teléfono móvil.
En junio de 2000 Kaspersky Labs declaró que "en pocos años los hornos microondas, los congeladores y otros artículos de línea blanca conectados a Internet serán los principales objetivos de los creadores de virus". En su anuncio, Kaspersky advertía que los virus abrirían las puertas de los refrigeradores durante la noche, o activarían la calefacción central durante el verano. Habiendo pasado 11 años desde ese pronóstico, puede concluirse que, al menos los refrigeradores, no han tenido mayor interés para los creadores de virus.
Fuente: AkihabaraNews
CONOCIMIENTO
Qué es el conocimiento?
El conocimiento se define a través de una disciplina llama epistemología, una doctrina filosófica que se conoce como la teoría del conocimiento. La epistemología define el conocimiento como aquel conjunto de saberes, que como veremos se dan a diferentes niveles, que poseemos sobre algo.
En cuanto al conocimiento conceptual, se trata de aquel que se forma a partir de un conjunto de representaciones definidas como invisibles, inmateriales, universales y esenciales. La diferencia más significativa entre el conocimiento sensible y el conceptual radica en que el primero es un conocimiento particular de cada persona, en el que cada uno ve y define los conceptos y los objetos con las características propias, mientras que el conceptual hace referencia a la universalidad de los conceptos y objetos, aquellos que todos comprendemos de la misma manera, sin añadirle características propias.
Por último, el conocimiento holístico, también denominado intuitivo hace alusión a la forma de captar los conceptos dentro de un contexto en particular, como uno de los elementos que componen una totalidad, sin poseer una limitación o estructura clara. Esto es lo que diferencia en mayor grado el nivel de conocimiento holístico con el conceptual, ya que este último posee ciertas estructuras que le brindan la universalidad.
El conocimiento y su relación con los Datos.
Los datos se refieren a la información relacionada con una aplicación particular. Por ejemplo, en diagnóstico médico, los síntomas, las enfermedades y las relaciones entre ellos, forman parte del conocimiento, mientras los síntomas particulares de un paciente dado forman parte de los datos. Mientras el conocimiento es permanente, los datos son efímeros, es decir, no forman parte de la componente permanente de un sistema y son destruidos después de usarlos. El conocimiento se almacena en la base de conocimiento y los datos se almacenan en la memoria de trabajo. Todos los procedimientos de los diferentes sistemas y subsistemas que son de carácter transitorio se almacenan también en la memoria de trabajo.
Componentes del conocimiento
• Experiencia
El conocimiento se desarrolla a través del tiempo mediante la experiencia que incluye cursos, libros, asesores y aprendizaje informal.
Experto: persona con profundo conocimiento de materia, puesto a prueba y entrenado por la experiencia.
Beneficio: brinda perspectiva histórica a partir de la cual se pueden considerar y entender nuevas situaciones y acontecimientos. Su aplicación puede ser simple o compleja, esos conocimientos basados en la experiencia son aquellos por lo que las empresas pagan premios y muestran porque la experiencia cuenta.
• Verdad Práctica
La verdad práctica significa saber qué es lo que realmente funciona y que es lo que no lo hace. Existe una brecha entre la verdad práctica y el análisis racional.
• Complejidad
El conocimiento puede tratar con la complejidad de una manera compleja. No es una estructura rígida. La importancia de la experiencia y la verdad en el conocimiento es una indicación de la capacidad del conocimiento para tratar la complejidad. Un conocimiento más profundo conduce a mejores decisiones que un conocimiento superficial. El conocimiento es también la conciencia de lo que no se sabe, mientras más se sabe más humilde debemos ser, pero no saber algo puede ser perjudicial.
• Criterio
A diferencia de los datos e información, el conocimiento implica criterio, no solo evalúa nuevas situaciones e información a la luz de lo que ya se conoce, sino evalúa y se refina como respuestas a nuevas situaciones o información. Cuando el conocimiento deja de evolucionar se convierte en opinión o dogma.
lunes, 18 de abril de 2011
Noticia
Filtran imágenes del nuevo Administrador Avanzado de Tareas para Windows 8
El Administrador de Tareas de Windows 8 proporcionará al usuario información más detallada sobre los procesos y servicios activos, como asimismo el uso de los recursos del sistema.
Diario Ti: Según filtraciones de Winrumors, el “Advanced Task Manager" de i Windows 8 incluye además una importante novedad, que sería la implementación Push en el sistema operativo. La evidencia serían tres nuevos ficheros DLL en el build 7850 de Windows 8. La publicación indica que la implementación Push quizás siga el mismo modelo de las plataformas móviles.
Estas serían las notificaciones push en Windows 8, con sus respectivas descripciones:
* wpnapps.dll - “Windows Push Notification Apps"
* wpncore.dll - “Windows Push Notification Core"
* wpnprv.dll - “Windows Push Notification Platform Connection Provider
Winrumors detectó además junto los ficheros Push los vínculos (mediante íconos Metro) a una nueva webcam y una aplicación para realizar capturas de pantalla.
fuente Diario Ti
El Administrador de Tareas de Windows 8 proporcionará al usuario información más detallada sobre los procesos y servicios activos, como asimismo el uso de los recursos del sistema.
Diario Ti: Según filtraciones de Winrumors, el “Advanced Task Manager" de i Windows 8 incluye además una importante novedad, que sería la implementación Push en el sistema operativo. La evidencia serían tres nuevos ficheros DLL en el build 7850 de Windows 8. La publicación indica que la implementación Push quizás siga el mismo modelo de las plataformas móviles.
Estas serían las notificaciones push en Windows 8, con sus respectivas descripciones:
* wpnapps.dll - “Windows Push Notification Apps"
* wpncore.dll - “Windows Push Notification Core"
* wpnprv.dll - “Windows Push Notification Platform Connection Provider
Winrumors detectó además junto los ficheros Push los vínculos (mediante íconos Metro) a una nueva webcam y una aplicación para realizar capturas de pantalla.
fuente Diario Ti
domingo, 10 de abril de 2011
Noticia
IPHONE 4 PUEDE ESPIAR OCULTAMENTE A SUS USUARIOS
Los nuevos aparatos de la compañía Apple, los iPhone 4, según varios reportes de los usuarios, publicados en los foros de discusión de Apple, han sido descubiertos haciendo algo bastante extraño: toman fotos sin notificar a los usuarios y las graban en la memoria, aunque los propietarios no pueden acceder a éstas.
Uno de los usuarios notó que el videochat inesperadamente se puso en pausa, y el teléfono mostró una imagen de él en la oficina de hacía unas horas, aunque él no la había grabado, y además no pudo encontrar la foto en la memoria del aparato. Otro usuario afirmó que su iPhone lo hace regularmente: muchas veces notaba que el teléfono lo fotografiaba sin notificar.
Mientras tanto, la descripción de la patente, obtenido por Apple para el ingenio, indica, que goza de algunos métodos de luchar contra los hackers. Entre ellos están el bloqueo a distancia, el envío a Apple de la información sobre los infractores, incluso la posición, fijada con GPS, y también las fotos, obtenidas con la cámara frontal.
Según la versión oficial, todas estas medidas solo son empleadas con el fin de proteger los derechos de la compañía. Pero esta situación deja la puerta abierta a la paranoia… Especialmente al conocer, que, según los expertos, el iPhone es solo uno de los múltiples smartphones que ocultamente envían información sobre el usuario a sus creadores.
via: RT
Los nuevos aparatos de la compañía Apple, los iPhone 4, según varios reportes de los usuarios, publicados en los foros de discusión de Apple, han sido descubiertos haciendo algo bastante extraño: toman fotos sin notificar a los usuarios y las graban en la memoria, aunque los propietarios no pueden acceder a éstas.
Uno de los usuarios notó que el videochat inesperadamente se puso en pausa, y el teléfono mostró una imagen de él en la oficina de hacía unas horas, aunque él no la había grabado, y además no pudo encontrar la foto en la memoria del aparato. Otro usuario afirmó que su iPhone lo hace regularmente: muchas veces notaba que el teléfono lo fotografiaba sin notificar.
Mientras tanto, la descripción de la patente, obtenido por Apple para el ingenio, indica, que goza de algunos métodos de luchar contra los hackers. Entre ellos están el bloqueo a distancia, el envío a Apple de la información sobre los infractores, incluso la posición, fijada con GPS, y también las fotos, obtenidas con la cámara frontal.
Según la versión oficial, todas estas medidas solo son empleadas con el fin de proteger los derechos de la compañía. Pero esta situación deja la puerta abierta a la paranoia… Especialmente al conocer, que, según los expertos, el iPhone es solo uno de los múltiples smartphones que ocultamente envían información sobre el usuario a sus creadores.
via: RT
martes, 5 de abril de 2011
Conferencia Quipux
Sistema de Gestión Documental QUIPUX UNL
Qué es Quipux?
Una aplicación web con licencia libre para la gestión de correspondencia creada por la
Subsecretaría Informática de la Presidencia de la República del Ecuador y disponible para entidades tanto públicas como privadas.
Permite el registro, control y ordenación de documentos digitales y/o físicos que se envían y reciben en una organización.
Situación Actual de la UNL
• Pérdida de documentación
• Altos tiempos en la entrega de documentos
• Dependencia total del tramitador
• Se requiere mantener archivos físicos en cada
• Dependencia
• Consecuente Utilización de papel
ARQUITECTURA QUIPUX UNL
Funcionalidad
• Creación, envío, recepción, almacenamiento, recuperación y clasificación de memos, oficios, circulares y anexos.
• Creación compartida de documentos
• Acceso al sistema por parte de usuarios externos relacionados con la institución
• Reportes estadísticos de documentos creados, enviados, tramitados, pendientes, archivados, reasignados.
• Seguridad: Ej. Firma Digital
• Registro de documentos impresos.
Beneficios de Quipux
• Acceso vía Web
• Seguridad a través de Firma Digital
• Tiempo de Entrega y Recepción inmediata
• Cero papeles
• Ahorro de espacio Físico
• Agilita la gestión de documentos
• Existe la comunidad quipux.org
Requerimientos
Hardware
• Procesador 2000Mhz
• Mamoria RAM 1GB
• Disco 600MB libres
• Enlace de acceso a la red
• Scanner A4 (para el caso de digitalización de documentos de entrada)
Software
• Mozilla Firefox 3 o navegadores compatibles con Arquitectura QUIPUX
Modificaciones a la versión 1.3
• Basado en la Versión 1.3
• Se modificó para que funcione con la versión 8.3 o superior de postgres
• Se permite anexar presentaciones en formato Open Document Format (.odp de Impress)
DESARROLLO
EVOLUCIÓN
Qué es Quipux?
Una aplicación web con licencia libre para la gestión de correspondencia creada por la
Subsecretaría Informática de la Presidencia de la República del Ecuador y disponible para entidades tanto públicas como privadas.
Permite el registro, control y ordenación de documentos digitales y/o físicos que se envían y reciben en una organización.
Situación Actual de la UNL
• Pérdida de documentación
• Altos tiempos en la entrega de documentos
• Dependencia total del tramitador
• Se requiere mantener archivos físicos en cada
• Dependencia
• Consecuente Utilización de papel
ARQUITECTURA QUIPUX UNL
Funcionalidad
• Creación, envío, recepción, almacenamiento, recuperación y clasificación de memos, oficios, circulares y anexos.
• Creación compartida de documentos
• Acceso al sistema por parte de usuarios externos relacionados con la institución
• Reportes estadísticos de documentos creados, enviados, tramitados, pendientes, archivados, reasignados.
• Seguridad: Ej. Firma Digital
• Registro de documentos impresos.
Beneficios de Quipux
• Acceso vía Web
• Seguridad a través de Firma Digital
• Tiempo de Entrega y Recepción inmediata
• Cero papeles
• Ahorro de espacio Físico
• Agilita la gestión de documentos
• Existe la comunidad quipux.org
Requerimientos
Hardware
• Procesador 2000Mhz
• Mamoria RAM 1GB
• Disco 600MB libres
• Enlace de acceso a la red
• Scanner A4 (para el caso de digitalización de documentos de entrada)
Software
• Mozilla Firefox 3 o navegadores compatibles con Arquitectura QUIPUX
Modificaciones a la versión 1.3
• Basado en la Versión 1.3
• Se modificó para que funcione con la versión 8.3 o superior de postgres
• Se permite anexar presentaciones en formato Open Document Format (.odp de Impress)
DESARROLLO
EVOLUCIÓN
Noticia
iPad, Google Books permite búsquedas y vista Horizontal
google, lanza una nueva aplicación llamada google Books, que es una versión mejorada, ya que permite colocar la orientación de la pantalla en forma horizontal,esto con la finalidad de poder ver el libro electrónico como si fuera real con dos paginas, de lado a lado, también tiene un buscador(find) que permite buscar todos los resultados del tema de interés,otra funcionalidad que posee, es un botón que te direccionamiento directamente con Google Bookstore
Esta aplicación es para iOS,y solo esta disponible para iPad
Puedes descargar Google Books siguiendo el siguiente enlace.
enterate de mas Aqui
fuente: Tecnologia21
google, lanza una nueva aplicación llamada google Books, que es una versión mejorada, ya que permite colocar la orientación de la pantalla en forma horizontal,esto con la finalidad de poder ver el libro electrónico como si fuera real con dos paginas, de lado a lado, también tiene un buscador(find) que permite buscar todos los resultados del tema de interés,otra funcionalidad que posee, es un botón que te direccionamiento directamente con Google Bookstore
Esta aplicación es para iOS,y solo esta disponible para iPad
Puedes descargar Google Books siguiendo el siguiente enlace.
enterate de mas Aqui
fuente: Tecnologia21
domingo, 3 de abril de 2011
Noticia
Disponible primera beta de WebOS 3.0
La primera versión de prueba del sistema operativo de actualmente propiedad de HP, con esta disponibilidad se pretende que todos los interesados en desarrollar nuevas aplicaciones para esta plataforma comiencen a realizar los trabajos correspondientes pudiendo analizar el desempeño de cada una de las aplicaciones desarrolladas gracias a esta versión del sistema.
Via:Noticias de tecnología, software e informática
a la venta
La primera versión de prueba del sistema operativo de actualmente propiedad de HP, con esta disponibilidad se pretende que todos los interesados en desarrollar nuevas aplicaciones para esta plataforma comiencen a realizar los trabajos correspondientes pudiendo analizar el desempeño de cada una de las aplicaciones desarrolladas gracias a esta versión del sistema.
Via:Noticias de tecnología, software e informática
a la venta
El Motor de Inferencia y Reglas de Inferencia
El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.
Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.
Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma "algorítmica" que aplica una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos.
MODUS PONENDO PONENS (PP)
p → q “Si llueve, entonces las calles se mojan” (premisa)
p “Llueve” (premisa)
__________________________________________________
q “Luego, las calles se mojan” (conclusión)
El condicional o implicación es aquella operación que establece entre dos enunciados una relación de causa-efecto. La regla ‘ponendo ponens’ significa, “afirmando afirmo” y en un condicional establece, que si el antecedente (primer término, en este caso p) se afirma, necesariamente se afirma el consecuente (segundo término, en este caso q).
MODUS TOLLENDO TOLLENS (TT)
‘Tollendo tollens’ significa “negando, niego”, y se refiere a una propiedad inversa de los condicionales, a los que nos referíamos en primer lugar.
p → q “Si llueve, entonces las calles se mojan”
¬q “Las calles no se mojan”
__________________________________________________
¬p “Luego, no llueve”
Si de un condicional, aparece como premisa el consecuente negado (el efecto), eso nos conduce a negar el antecedente (la causa), puesto que si un efecto no se da, su causa no ha podido darse.
Esto nos permite formular una regla combinada de las ambas anteriores, consecuencia ambas de una misma propiedad de la implicación; la regla ponendo ponens sólo nos permite afirmar si está afirmado el antecedente (el primer término de la implicación), y la regla tollendo tollens sólo nos permite negar a partir del consecuente (segundo término de la implicación); ambas consecuencias se derivan de que la implicación es una flecha que apunta en un único sentido, lo que hace que sólo se pueda afirmar a partir del antecedente y negar sólo a partir del consecuente.
ver tambien
Motor De Inferencia
Sistemas Expertos Basados en reglas
inferencia lógica
Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.
Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma "algorítmica" que aplica una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos.
MODUS PONENDO PONENS (PP)
p → q “Si llueve, entonces las calles se mojan” (premisa)
p “Llueve” (premisa)
__________________________________________________
q “Luego, las calles se mojan” (conclusión)
El condicional o implicación es aquella operación que establece entre dos enunciados una relación de causa-efecto. La regla ‘ponendo ponens’ significa, “afirmando afirmo” y en un condicional establece, que si el antecedente (primer término, en este caso p) se afirma, necesariamente se afirma el consecuente (segundo término, en este caso q).
MODUS TOLLENDO TOLLENS (TT)
‘Tollendo tollens’ significa “negando, niego”, y se refiere a una propiedad inversa de los condicionales, a los que nos referíamos en primer lugar.
p → q “Si llueve, entonces las calles se mojan”
¬q “Las calles no se mojan”
__________________________________________________
¬p “Luego, no llueve”
Si de un condicional, aparece como premisa el consecuente negado (el efecto), eso nos conduce a negar el antecedente (la causa), puesto que si un efecto no se da, su causa no ha podido darse.
Esto nos permite formular una regla combinada de las ambas anteriores, consecuencia ambas de una misma propiedad de la implicación; la regla ponendo ponens sólo nos permite afirmar si está afirmado el antecedente (el primer término de la implicación), y la regla tollendo tollens sólo nos permite negar a partir del consecuente (segundo término de la implicación); ambas consecuencias se derivan de que la implicación es una flecha que apunta en un único sentido, lo que hace que sólo se pueda afirmar a partir del antecedente y negar sólo a partir del consecuente.
ver tambien
Motor De Inferencia
Sistemas Expertos Basados en reglas
inferencia lógica
SISTEMA EXPERTO
SISTEMA EXPERTO QUE MEDIANTE UN TEST PUEDA DETECTAR SI UNA MUJER ESTA
EMBARAZADA.
El sistema está en la capacidad de determinar mediante un test si una mujer está embarazada y además dar consejos de cómo sobrellevar la etapa del embarazo.
TABLA DE OBJETOS
OBJETO ACCIONES
síntomas si no
Diagnostico embarazada No está embarazada
control
REGLAS DEL SISTEMA EXPERTO
Si
Síntomas=70% de acierto
Entonces
Diagnostico= Embarazada
EMBARAZADA.
El sistema está en la capacidad de determinar mediante un test si una mujer está embarazada y además dar consejos de cómo sobrellevar la etapa del embarazo.
TABLA DE OBJETOS
OBJETO ACCIONES
síntomas si no
Diagnostico embarazada No está embarazada
control
REGLAS DEL SISTEMA EXPERTO
Si
Síntomas=70% de acierto
Entonces
Diagnostico= Embarazada
martes, 29 de marzo de 2011
Noticia
McAfee olvidó escanear su propio sitio web en busca de vulnerabilidades
McAfee ofrece, entre otros productos de seguridad, un servicio de escaneo online para sitios externos. Sin embargo, el sitio de la propia empresa presenta tres vulnerabilidades, según grupo de hackers éticos.
Diario Ti: El autodenominado YGN Ethical Hacker Group, dedicado a fomentar la seguridad informática mediante el hacking positivo o ético, ha revelado tres vulnerabilidades en un sitio propiedad de McAfee. El tema es sin duda bochornoso para McAfee, debido a que habría descuidado la seguridad de su propio sitio, a la vez que ofrece validar la seguridad de sitios externos.
YGN Ethical Hacker Group dice haber informado a McAfee sobre las vulnerabilidades el día 10 de febrero. La supuesta pasividad de McAfee frente al tema llevó al grupo de hackers a revelar la información. La descripción completa está disponible en ésta página.
Según se indica, el sitio download.mcafee.com, propiedad de McAfee sería vulnerable a ataques de tipo cross site scripting, que pueden ser explotados para dirigir a los usuarios a un sitio falso desde donde potencialmente podrían descargar malware en lugar de software de seguridad.
Las vulnerabilidades también permiten acceso a código fuente e información interna de la empresa. En un comunicado, McAfee asegura que las vulnerabilidades bajo ninguna circunstancia han comprometido la seguridad ni datos de sus clientes. La empresa informa además que los agujeros serán parcheados dentro de las próximas horas.
Cabe señalar que las tres vulnerabilidades permanecieron en un nivel de daño potencial; es decir, no fueron activamente explotadas por sus creadores para sabotear las actividades o el sitio de McAfee.
Con todo, el tema podría perjudicar la imagen de McAfee. Los clientes de la empresa pueden solicitar un sello de calidad, con el logotipo de McAfee, que confirma que el sitio ha sido escaneado frente a "decenas de miles de vulnerabilidades", controlando que cumple con los altos estándares de seguridad de McAfee. El logotipo de "McAfee Secure" implica, en otras palabras, que los sitios externos han sido escaneados y declarados limpios de las mismas vulnerabilidades detectadas en el sitio download.mcafee.com.
En 2009, McAfee experimentó un problema similar en su sitio y en 2005 un problema de seguridad en su software antivirus.
via: Diario Ti
McAfee ofrece, entre otros productos de seguridad, un servicio de escaneo online para sitios externos. Sin embargo, el sitio de la propia empresa presenta tres vulnerabilidades, según grupo de hackers éticos.
Diario Ti: El autodenominado YGN Ethical Hacker Group, dedicado a fomentar la seguridad informática mediante el hacking positivo o ético, ha revelado tres vulnerabilidades en un sitio propiedad de McAfee. El tema es sin duda bochornoso para McAfee, debido a que habría descuidado la seguridad de su propio sitio, a la vez que ofrece validar la seguridad de sitios externos.
YGN Ethical Hacker Group dice haber informado a McAfee sobre las vulnerabilidades el día 10 de febrero. La supuesta pasividad de McAfee frente al tema llevó al grupo de hackers a revelar la información. La descripción completa está disponible en ésta página.
Según se indica, el sitio download.mcafee.com, propiedad de McAfee sería vulnerable a ataques de tipo cross site scripting, que pueden ser explotados para dirigir a los usuarios a un sitio falso desde donde potencialmente podrían descargar malware en lugar de software de seguridad.
Las vulnerabilidades también permiten acceso a código fuente e información interna de la empresa. En un comunicado, McAfee asegura que las vulnerabilidades bajo ninguna circunstancia han comprometido la seguridad ni datos de sus clientes. La empresa informa además que los agujeros serán parcheados dentro de las próximas horas.
Cabe señalar que las tres vulnerabilidades permanecieron en un nivel de daño potencial; es decir, no fueron activamente explotadas por sus creadores para sabotear las actividades o el sitio de McAfee.
Con todo, el tema podría perjudicar la imagen de McAfee. Los clientes de la empresa pueden solicitar un sello de calidad, con el logotipo de McAfee, que confirma que el sitio ha sido escaneado frente a "decenas de miles de vulnerabilidades", controlando que cumple con los altos estándares de seguridad de McAfee. El logotipo de "McAfee Secure" implica, en otras palabras, que los sitios externos han sido escaneados y declarados limpios de las mismas vulnerabilidades detectadas en el sitio download.mcafee.com.
En 2009, McAfee experimentó un problema similar en su sitio y en 2005 un problema de seguridad en su software antivirus.
via: Diario Ti
viernes, 25 de marzo de 2011
Google no compartirá, hasta nuevo aviso, el código de Android 3.0
Honeycomb, el sistema operativo de Google para tabletas, no estará disponible para todos los interesados, al menos hasta nuevo aviso - que podría coincidir con el lanzamiento de la futura versión "Ice Cream" de Android.
Este esquema facilita a los fabricantes de unidades basadas en Android la adaptación del sistema operativo a sus productos específicos.
Sin embargo, para el caso de Android 3.0 Google ha decidido cambiar el procedimiento. Android 3.0 es la primera versión del software adaptada para su uso en tabletas.
Según BusinessWeek Google ha ofrecido el código fuente de Honeycomb solo a un grupo selecto de clientes, como Motorola, Samsung, Asus y HTC, en tanto que los actores menores deberán esperar. La causa sería aprensiones en Google, en el sentido que estos actores podrían implementar el software de manera inadecuada.
El director de la plataforma Android en Google, Andy Rubin, explicó a Business Week que la empresa debió realizar algunas consideraciones en torno al diseño de Honeycomb, con el fin de cumplir con el calendario de desarrollo para tabletas.
En tal sentido, explicó que prefirieron concentrarse en las necesidades que planteaban las tabletas, en lugar de favorecer la ejecución del software en teléfonos móviles ya que "esto habría requerido recursos extraordinarios y extendido el calendario más allá de lo razonable".
Agregó que si Google ofreciera el código de Honeycomb ahora mismo, la compañía no podría impedir que desarrolladores lo instalen en teléfonos móviles, creando experiencias deficientes para el usuario.
La conclusión de Rubin lo explica todo: "Ni siquiera sabemos si Honeycomb funcionaría en teléfonos móviles". Agregó que el equipo de desarrollo trabaja intensamente para que el sistema funcione en otras unidades de hardware.
Fuentes contactadas por Business Week señalaron que el código fuente de la versión Honeycomb de Android será publicado tan pronto concluya el desarrollo de la próxima versión de Android, conocida con el nombre de trabajo "Ice Cream".
Rubin precisó que Honeycomb continúa siendo un proyecto de código abierto y que la compañía no ha cambiado su estrategia al respecto.
Google no ha tenido un ritmo periódico de lanzamiento de las versiones de Android. Honeycomb fue lanzado en febrero pasado.
via Diario Ti
Este esquema facilita a los fabricantes de unidades basadas en Android la adaptación del sistema operativo a sus productos específicos.
Sin embargo, para el caso de Android 3.0 Google ha decidido cambiar el procedimiento. Android 3.0 es la primera versión del software adaptada para su uso en tabletas.
Según BusinessWeek Google ha ofrecido el código fuente de Honeycomb solo a un grupo selecto de clientes, como Motorola, Samsung, Asus y HTC, en tanto que los actores menores deberán esperar. La causa sería aprensiones en Google, en el sentido que estos actores podrían implementar el software de manera inadecuada.
El director de la plataforma Android en Google, Andy Rubin, explicó a Business Week que la empresa debió realizar algunas consideraciones en torno al diseño de Honeycomb, con el fin de cumplir con el calendario de desarrollo para tabletas.
En tal sentido, explicó que prefirieron concentrarse en las necesidades que planteaban las tabletas, en lugar de favorecer la ejecución del software en teléfonos móviles ya que "esto habría requerido recursos extraordinarios y extendido el calendario más allá de lo razonable".
Agregó que si Google ofreciera el código de Honeycomb ahora mismo, la compañía no podría impedir que desarrolladores lo instalen en teléfonos móviles, creando experiencias deficientes para el usuario.
La conclusión de Rubin lo explica todo: "Ni siquiera sabemos si Honeycomb funcionaría en teléfonos móviles". Agregó que el equipo de desarrollo trabaja intensamente para que el sistema funcione en otras unidades de hardware.
Fuentes contactadas por Business Week señalaron que el código fuente de la versión Honeycomb de Android será publicado tan pronto concluya el desarrollo de la próxima versión de Android, conocida con el nombre de trabajo "Ice Cream".
Rubin precisó que Honeycomb continúa siendo un proyecto de código abierto y que la compañía no ha cambiado su estrategia al respecto.
Google no ha tenido un ritmo periódico de lanzamiento de las versiones de Android. Honeycomb fue lanzado en febrero pasado.
via Diario Ti
martes, 22 de marzo de 2011
Arquitectura de un Sistema Experto
Arquitectura de un Sistema Experto
Un sistema experto tiene la siguiente arquitectura:
Base de Conocimientos (Knowledgebase): representa el conocimiento del experto y el problema en forma de hechos descriptivos y reglas de inferencia lógica. Una forma clásica de representar el conocimiento en un sistema experto son las reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos: Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia: Se lo podría denominar como el corazón de todo sistema experto ya que saca conclusiones aplicando el conocimiento a los datos.Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de Usuario (User Interface): recibe y entrega información interactuando con el usuario, es decir, el usuario puede: 1) alimentar hechos, 2) proporcionar objetivos, 3) nuevas restricciones y reglas, 4) escribir programas que deban adicionarse al sistema, 5) solicitar resultados y reportes, y 6) cuestionar cómo se obtuvieron ciertas conclusiones. Dada la posible complejidad que puede existir entre el sistema y el usuario, se pueden tener distintos tipos de especialistas como usuarios, tales como: 1) el experto, 2) el ingeniero de conocimiento, 3) el programador, 4) el administrador del sistema, y 5) los usuarios finales.
fuentes:
http://www.depi.itch.edu.mx/apacheco/ai/definic.htm
http://www.wikilearning.com/monografia/sistemas_expertos_se-arquitectura_basica_de_los_se/12149-5
http://www.monografias.com/trabajos16/sistemas-expertos/sistemas-expertos.shtml
Un sistema experto tiene la siguiente arquitectura:
Base de Conocimientos (Knowledgebase): representa el conocimiento del experto y el problema en forma de hechos descriptivos y reglas de inferencia lógica. Una forma clásica de representar el conocimiento en un sistema experto son las reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos: Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia: Se lo podría denominar como el corazón de todo sistema experto ya que saca conclusiones aplicando el conocimiento a los datos.Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de Usuario (User Interface): recibe y entrega información interactuando con el usuario, es decir, el usuario puede: 1) alimentar hechos, 2) proporcionar objetivos, 3) nuevas restricciones y reglas, 4) escribir programas que deban adicionarse al sistema, 5) solicitar resultados y reportes, y 6) cuestionar cómo se obtuvieron ciertas conclusiones. Dada la posible complejidad que puede existir entre el sistema y el usuario, se pueden tener distintos tipos de especialistas como usuarios, tales como: 1) el experto, 2) el ingeniero de conocimiento, 3) el programador, 4) el administrador del sistema, y 5) los usuarios finales.
fuentes:
http://www.depi.itch.edu.mx/apacheco/ai/definic.htm
http://www.wikilearning.com/monografia/sistemas_expertos_se-arquitectura_basica_de_los_se/12149-5
http://www.monografias.com/trabajos16/sistemas-expertos/sistemas-expertos.shtml
Facebook expulsa diariamente a 20.000 usuarios
El responsable de privacidad en Facebook, Mozelle Thompson, declaró que la red social cierra a diario las cuentas de 20.000 usuarios por incumplimiento de la regla de edad mínima. "Son gente que miente, y que son menores de 13 años", explica Thompson.
Diario Ti: El diario australiano The Daily Telegraph escribe que Thompson fue citada por el comité gubernamental de seguridad en la red para explicar los procedimientos que sigue Facebook para hacer cumplir la normativa que requiere un mínimo de 13 años de edad para sumarse a la red social.
Aunque Thompson no explicó en detalle el funcionamiento del servicio de supervisión que impide a menores de 13 años apuntarse a Facebook, admitió que el sistema "no es perfecto".
Agregó que un número cada vez mayor de usuarios asegura tener 13 años cumplidos al abrir una cuenta en Facebook, pero que posteriormente se delatan a sí mismos revelando su edad verdadera. Thompson se refiere a tales usuarios como "mentirosos", lo que explica el cierre inmediato de sus cuentas. Diariamente, Facebook expulsa un promedio de 20.000 usuarios.
Thompson se negó a comentar ante The Daily Telegraph los procedimientos de monitorización y control que le permiten revelar la edad verdadera de los usuarios. La publicación indica que probablemente hay un gran número de usuarios de 11-12 años de edad, o incluso menores, que se suman a Facebook con o sin el consentimiento de sus padres.
El tema preocupa a las autoridades debido a la posibilidad que pedófilos contacten a los menores por intermedio de la popular red Facebook.
Fuente: The Daily Telegraph (Australia)
Imagen: Mark Zuckerberg, CEO de Facebook
via Diario Ti
Diario Ti: El diario australiano The Daily Telegraph escribe que Thompson fue citada por el comité gubernamental de seguridad en la red para explicar los procedimientos que sigue Facebook para hacer cumplir la normativa que requiere un mínimo de 13 años de edad para sumarse a la red social.
Aunque Thompson no explicó en detalle el funcionamiento del servicio de supervisión que impide a menores de 13 años apuntarse a Facebook, admitió que el sistema "no es perfecto".
Agregó que un número cada vez mayor de usuarios asegura tener 13 años cumplidos al abrir una cuenta en Facebook, pero que posteriormente se delatan a sí mismos revelando su edad verdadera. Thompson se refiere a tales usuarios como "mentirosos", lo que explica el cierre inmediato de sus cuentas. Diariamente, Facebook expulsa un promedio de 20.000 usuarios.
Thompson se negó a comentar ante The Daily Telegraph los procedimientos de monitorización y control que le permiten revelar la edad verdadera de los usuarios. La publicación indica que probablemente hay un gran número de usuarios de 11-12 años de edad, o incluso menores, que se suman a Facebook con o sin el consentimiento de sus padres.
El tema preocupa a las autoridades debido a la posibilidad que pedófilos contacten a los menores por intermedio de la popular red Facebook.
Fuente: The Daily Telegraph (Australia)
Imagen: Mark Zuckerberg, CEO de Facebook
via Diario Ti
sábado, 19 de marzo de 2011
El ciclo de vida de los sistemas expertos
El ciclo de vida consiste de seis fases. Este ciclo no es fijo. Como los expertos con frecuencia tienen problemas para explicar sus soluciones, los problemas tienen que fraccionarse en subproblemas antes que las soluciones puedan quedar definidas (Weitzel y Kerschberg, 1989). Cada fase puede necesitar de varias iteraciones antes de que un sistema completo pueda ser desarrollado. Ahora describiremos estas fases.
La fase 1 consiste en encontrar un problema apropiado para un sistema experto, localizar un experto para contribuir en el conocimiento maestro, establecer un enfoque preliminar, analizar los costos y beneficios y finalmente preparar un plan de desarrollo. La mayor parte de los sistemas expertos se enfocan en una especialidad estrecha. Es importante evitar los problemas que pueden surgir de lo que se indica:
• La comprensión del idioma (inglés).
• Modelos geométricos o espaciales complicados.
• Modelos complejos de tipo causal o temporal.
• La comprensión de las intenciones de las personas.
• Sentido común o conocimiento de antecedentes.
El punto importante al principio de la etapa de diseño es evitar problemas complejos que están más allá del conocimiento maestro de los diseñadores. En general, encontrar un problema adecuado pondrá al ingeniero de conocimiento en contacto con expertos en toda la empresa a quienes les gustaría desarrollar sistemas basados en sus conocimientos.
La fase 2 consiste del desarrollo de un prototipo de sistema. El prototipo del sistema es una versión en pequeño del sistema experto diseñado para probar supuestos sobre cómo codificar los hechos, las relaciones y el conocimiento más profundo del campo del conocimiento maestro. Entre otras tareas de esta fase, se incluyen.
• Aprender sobre el dominio y la tarea.
• Especificar los criterios de desempeño.
• Seleccionar una herramienta para construir un sistema experto.
• Desarrollar un plan de implantación.
• Desarrollar un diseño detallado para un sistema completo.
La fase 3 es el desarrollo de un sistema completo. El desarrollo de un sistema a escala es probablemente la etapa más compleja del esfuerzo. La estructura central de todo el sistema debe ser determinada; esta es la base de conocimientos debe extenderse a la base de conocimientos totales de manera congruente con el mundo real, y debe desarrollarse la interface con el usuario.
El trabajo principal en esta fase es la suma de un gran número de reglas. La complejidad de todo el sistema crece con el número de reglas y se ve amenazada la integridad del sistema. Se desarrolla un conflicto fundamental en este período entre la fidelidad a la complejidad del mundo real y la comprensibilidad del sistema.
La fase 4 es la evaluación. Cuando el experto y el ingeniero de conocimiento quedan satisfechos de que el sistema está completo, puede ser probado ya contra los criterios de desempeño establecidos en etapas anteriores. Es también tiempo de de mostrar el sistema a al institución e invitar a otros expertos a probarlo y presentar nuevos casos.
La fase 5 es la integración del sistema. Una vez construido, el sistema experto debe ser integrado al flujo de los datos y patrones de trabajo de la institución. Normalmente se deben desarrollar nuevos procedimientos, junto con nuevas formas, nuevas subunidades en la organización y nuevos procedimientos de entrenamiento.
La fase 6 es el mantenimiento del sistema. Como cualquier sistema, el ambiente en el que el sistema experto opera está en cambios continuos. Esto significa que el sistema experto debe también cambiar de manera continua. Se sabe muy poco sobre los costos de mantenimiento a largo plazo de los sistemas expertos, y aun se ha publicado menos. Algunos sistemas expertos, en especial los grandes, son tan complejos que en algunos años los costos de mantenimiento habrán igualado los costos de desarrollo. En el caso de XCON, cerca del 30 o 50 por ciento de las reglas se cambian cada año.
Ciclo de vida de un Sistema Tradicional
El ciclo de vida es un proceso de varias etapas que comienza con la necesidad de un usuario o cliente, produce un software que satisface esa necesidad y termina con el desecho de la aplicación. El proceso se lleva a cabo mediante varias etapas. Usualmente estas etapas son:
• Planificación
• Análisis
• Diseño
• Implementación
• Prueba
• Instalación
• Mantenimiento
DIFERENCIA CON LOS SISTEMAS EXPERTOS Y TRADICIONALES.
Sistema clásico
• Comprender el problema, la incertidumbre en la estimación es inevitable
• Plantear una posible solución, considerando soluciones alternativas
• Llevar a cabo la solución planteada
Sistema experto
• Evalúa el problema y los recursos disponibles
• La experiencia demuestra que sin tener especificaciones no es posible diseñar un SE de real utilidad.
• Determina la herramienta escogida para construir el prototipo, y la selección de los expertos.
• La implementación comprende el proceso completo de adquisición del conocimiento para todos los módulos o subsistemas.
http://wwwisis.ufg.edu.sv/wwwisis/documentos/TE/370-Z12d/370-Z12d-Capitulo%20II.pdf
http://www.depi.itch.edu.mx/apacheco/ai/ventdesv.htm
La fase 1 consiste en encontrar un problema apropiado para un sistema experto, localizar un experto para contribuir en el conocimiento maestro, establecer un enfoque preliminar, analizar los costos y beneficios y finalmente preparar un plan de desarrollo. La mayor parte de los sistemas expertos se enfocan en una especialidad estrecha. Es importante evitar los problemas que pueden surgir de lo que se indica:
• La comprensión del idioma (inglés).
• Modelos geométricos o espaciales complicados.
• Modelos complejos de tipo causal o temporal.
• La comprensión de las intenciones de las personas.
• Sentido común o conocimiento de antecedentes.
El punto importante al principio de la etapa de diseño es evitar problemas complejos que están más allá del conocimiento maestro de los diseñadores. En general, encontrar un problema adecuado pondrá al ingeniero de conocimiento en contacto con expertos en toda la empresa a quienes les gustaría desarrollar sistemas basados en sus conocimientos.
La fase 2 consiste del desarrollo de un prototipo de sistema. El prototipo del sistema es una versión en pequeño del sistema experto diseñado para probar supuestos sobre cómo codificar los hechos, las relaciones y el conocimiento más profundo del campo del conocimiento maestro. Entre otras tareas de esta fase, se incluyen.
• Aprender sobre el dominio y la tarea.
• Especificar los criterios de desempeño.
• Seleccionar una herramienta para construir un sistema experto.
• Desarrollar un plan de implantación.
• Desarrollar un diseño detallado para un sistema completo.
La fase 3 es el desarrollo de un sistema completo. El desarrollo de un sistema a escala es probablemente la etapa más compleja del esfuerzo. La estructura central de todo el sistema debe ser determinada; esta es la base de conocimientos debe extenderse a la base de conocimientos totales de manera congruente con el mundo real, y debe desarrollarse la interface con el usuario.
El trabajo principal en esta fase es la suma de un gran número de reglas. La complejidad de todo el sistema crece con el número de reglas y se ve amenazada la integridad del sistema. Se desarrolla un conflicto fundamental en este período entre la fidelidad a la complejidad del mundo real y la comprensibilidad del sistema.
La fase 4 es la evaluación. Cuando el experto y el ingeniero de conocimiento quedan satisfechos de que el sistema está completo, puede ser probado ya contra los criterios de desempeño establecidos en etapas anteriores. Es también tiempo de de mostrar el sistema a al institución e invitar a otros expertos a probarlo y presentar nuevos casos.
La fase 5 es la integración del sistema. Una vez construido, el sistema experto debe ser integrado al flujo de los datos y patrones de trabajo de la institución. Normalmente se deben desarrollar nuevos procedimientos, junto con nuevas formas, nuevas subunidades en la organización y nuevos procedimientos de entrenamiento.
La fase 6 es el mantenimiento del sistema. Como cualquier sistema, el ambiente en el que el sistema experto opera está en cambios continuos. Esto significa que el sistema experto debe también cambiar de manera continua. Se sabe muy poco sobre los costos de mantenimiento a largo plazo de los sistemas expertos, y aun se ha publicado menos. Algunos sistemas expertos, en especial los grandes, son tan complejos que en algunos años los costos de mantenimiento habrán igualado los costos de desarrollo. En el caso de XCON, cerca del 30 o 50 por ciento de las reglas se cambian cada año.
Ciclo de vida de un Sistema Tradicional
El ciclo de vida es un proceso de varias etapas que comienza con la necesidad de un usuario o cliente, produce un software que satisface esa necesidad y termina con el desecho de la aplicación. El proceso se lleva a cabo mediante varias etapas. Usualmente estas etapas son:
• Planificación
• Análisis
• Diseño
• Implementación
• Prueba
• Instalación
• Mantenimiento
DIFERENCIA CON LOS SISTEMAS EXPERTOS Y TRADICIONALES.
Sistema clásico
• Comprender el problema, la incertidumbre en la estimación es inevitable
• Plantear una posible solución, considerando soluciones alternativas
• Llevar a cabo la solución planteada
Sistema experto
• Evalúa el problema y los recursos disponibles
• La experiencia demuestra que sin tener especificaciones no es posible diseñar un SE de real utilidad.
• Determina la herramienta escogida para construir el prototipo, y la selección de los expertos.
• La implementación comprende el proceso completo de adquisición del conocimiento para todos los módulos o subsistemas.
http://wwwisis.ufg.edu.sv/wwwisis/documentos/TE/370-Z12d/370-Z12d-Capitulo%20II.pdf
http://www.depi.itch.edu.mx/apacheco/ai/ventdesv.htm
SISTEMAS EXPERTOS PIONEROS
SISTEMAS EXPERTOS PIONEROS
Después del descubrimiento de I.A., se quería que los ordenadores sean capaces de ayudar al hombre, por ello surgen los primeros sistemas expertos, después de muchos intentos fallidos se logró construir los primeros sistemas expertos los cuales eran bastante complicados estos fueron: DENDRAL, MYCIN, XCON, etc.
En1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.
En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales.
En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC).
El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.
Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos
En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.
En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.
A partir de los 90 y con el desarrollo de la informatica, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad.
Jackson, P. Introduction to Expert Systems Addison-Wesley, 1990.
www.monografias.com
Monografía creado por Jesús Montes Castro.
Después del descubrimiento de I.A., se quería que los ordenadores sean capaces de ayudar al hombre, por ello surgen los primeros sistemas expertos, después de muchos intentos fallidos se logró construir los primeros sistemas expertos los cuales eran bastante complicados estos fueron: DENDRAL, MYCIN, XCON, etc.
En1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.
En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales.
En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC).
El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.
Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos
En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.
En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.
A partir de los 90 y con el desarrollo de la informatica, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad.
Jackson, P. Introduction to Expert Systems Addison-Wesley, 1990.
www.monografias.com
Monografía creado por Jesús Montes Castro.
Empresa de TI ayudará a la CIA a predecir el futuro
Entre los muchos usos que puede darse a Internet ha surgido uno nuevo: predecir el futuro.
Diario Ti: Empresa sueco-estadounidense ha desarrollado una tecnología que permite predecir el futuro. El sistema analiza cientos de miles de sitios web, bases de datos, blogs, tweets, etc., buscando conexiones entre los textos con el fin de determinar cuando podrían ocurrir los hechos descritos.
"El sistema puede analizar los textos con un grado tal de exactitud que podemos saber cuando algo ocurrirá", asegura Steffan Truve, director científico de Recorded Future, al diario sueco Aftonbladet.
El proyecto habría interesado a la CIA y a Google, que incluso habrían invertido en la tecnología esbozada por Truve. Desde hace tiempo, la CIA se interesa por empresas que tengan la capacidad de desarrollar tecnologías que puedan facilitar su labor de inteligencia.
Los creadores de la tecnología admiten ante Aftonbladet que la predicción de catástrofes naturales como las que estos días afectan a Japón son difíciles de pronosticar. Explican que su tecnología podría pronosticar, por ejemplo, la cotización bursátil de una aerolínea después de anunciar nuevas rutas.
En concreto, la tecnología analiza distintos caudales informativos, estableciendo posibles conexiones lógicas y contextuales, evaluando además la calidad de las fuentes.
Si, por ejemplo, un blogger escribe que una empresa cerrará dos de sus divisiones en diez meses, el sistema no asigna necesariamente la mayor credibilidad a la información. Si embargo, si el sistema detecta que la información es referida por otros boletines o bases de datos, intenta determinar las probabilidades de que los hechos anunciados ocurran en el plazo indicado.
"Nuestras estadísticas indican que, por ejemplo, al monitorizar blogs financieros con herramientas estadísticas es posible pronosticar el desarrollo que tendrá la cotización bursátil de distintas empresas", comentó Truve a Aftonbladet.
Fuente: Aftonbladet
Diario Ti: Empresa sueco-estadounidense ha desarrollado una tecnología que permite predecir el futuro. El sistema analiza cientos de miles de sitios web, bases de datos, blogs, tweets, etc., buscando conexiones entre los textos con el fin de determinar cuando podrían ocurrir los hechos descritos.
"El sistema puede analizar los textos con un grado tal de exactitud que podemos saber cuando algo ocurrirá", asegura Steffan Truve, director científico de Recorded Future, al diario sueco Aftonbladet.
El proyecto habría interesado a la CIA y a Google, que incluso habrían invertido en la tecnología esbozada por Truve. Desde hace tiempo, la CIA se interesa por empresas que tengan la capacidad de desarrollar tecnologías que puedan facilitar su labor de inteligencia.
Los creadores de la tecnología admiten ante Aftonbladet que la predicción de catástrofes naturales como las que estos días afectan a Japón son difíciles de pronosticar. Explican que su tecnología podría pronosticar, por ejemplo, la cotización bursátil de una aerolínea después de anunciar nuevas rutas.
En concreto, la tecnología analiza distintos caudales informativos, estableciendo posibles conexiones lógicas y contextuales, evaluando además la calidad de las fuentes.
Si, por ejemplo, un blogger escribe que una empresa cerrará dos de sus divisiones en diez meses, el sistema no asigna necesariamente la mayor credibilidad a la información. Si embargo, si el sistema detecta que la información es referida por otros boletines o bases de datos, intenta determinar las probabilidades de que los hechos anunciados ocurran en el plazo indicado.
"Nuestras estadísticas indican que, por ejemplo, al monitorizar blogs financieros con herramientas estadísticas es posible pronosticar el desarrollo que tendrá la cotización bursátil de distintas empresas", comentó Truve a Aftonbladet.
Fuente: Aftonbladet
martes, 15 de marzo de 2011
ESQUEMA DE SEGURIDAD DEL SISTEMA TRANSACCIONAL DE CASH
MANAGEMENT DEL BANCO DEL PICHINCHA
Tecnológica
Plataforma Segura
La plataforma transaccional del Sistema De Cash Management usa la seguridad del sistema operativo, Windows 2000 para autentificación de usuarios, roles y atribuciones de estos en el sistema.
Se usa la más avanzada tecnología de servidores que aseguran la disponibilidad del
sistema en un 99%, esto incluye servidores principales y de respaldo, hardware que evita el ingreso de intrusos (firewall), infraestructura de comunicaciones redundante es decir, con respaldos de los canales de comunicación en caso de fallas.
Autentificación
El sistema usa la seguridad del sistema operativo, es decir el sistema de seguridad de Windows 2000, todas las autentificaciones del sistema para el ingreso y atribuciones de los usuarios en el sistema transaccional deben estar previamente definidas en el Sistema Operativo los cuales son administrados por un ente de seguridad propio del
Banco del Pichincha siguiendo procedimientos previamente definidos, validados y aprobados.
Perfil De Usuarios
Los perfiles de usuarios están definidos en el sistema operativo, usando grupos de acceso al sistema y definiendo para cada grupo los derechos y atribuciones sobre el sistema transaccional, por ejemplo existen usuarios que solamente pueden ingresar los datos, otros que solamente puedan aprobar transacciones y otros que tengan todas las atribuciones, etc. Los grupos son creados de acuerdo a las necesidades de las empresas.
Encriptación De Datos
Se usa certificados digitales reconocidos por entidades certificadoras a nivel internacional los que permite encriptar los datos a 128 bits el cual es el estándar mas alto de seguridad en la actualidad para el Internet.
Seguridad de WINDOWS 2000.- Definición de usuarios y los recursos asignados, directorios, base de datos, componentes, roles. En el IIE registrar al usuario como autorizado a usar los recursos asignados. Si no está definido el usuario no puede conectarse.
Aplicativa
Aplicativo de definición de perfil de usuario, empresa, usuario, aplicativos, opciones, niveles de aprobación.
Registro de auditoría, logs de auditoría que permiten llevar control de las transacciones realizadas por los usuarios., registro de los eventos relevantes.
Sistema biométrico de ingreso del Banco Pichincha
MANAGEMENT DEL BANCO DEL PICHINCHA
Tecnológica
Plataforma Segura
La plataforma transaccional del Sistema De Cash Management usa la seguridad del sistema operativo, Windows 2000 para autentificación de usuarios, roles y atribuciones de estos en el sistema.
Se usa la más avanzada tecnología de servidores que aseguran la disponibilidad del
sistema en un 99%, esto incluye servidores principales y de respaldo, hardware que evita el ingreso de intrusos (firewall), infraestructura de comunicaciones redundante es decir, con respaldos de los canales de comunicación en caso de fallas.
Autentificación
El sistema usa la seguridad del sistema operativo, es decir el sistema de seguridad de Windows 2000, todas las autentificaciones del sistema para el ingreso y atribuciones de los usuarios en el sistema transaccional deben estar previamente definidas en el Sistema Operativo los cuales son administrados por un ente de seguridad propio del
Banco del Pichincha siguiendo procedimientos previamente definidos, validados y aprobados.
Perfil De Usuarios
Los perfiles de usuarios están definidos en el sistema operativo, usando grupos de acceso al sistema y definiendo para cada grupo los derechos y atribuciones sobre el sistema transaccional, por ejemplo existen usuarios que solamente pueden ingresar los datos, otros que solamente puedan aprobar transacciones y otros que tengan todas las atribuciones, etc. Los grupos son creados de acuerdo a las necesidades de las empresas.
Encriptación De Datos
Se usa certificados digitales reconocidos por entidades certificadoras a nivel internacional los que permite encriptar los datos a 128 bits el cual es el estándar mas alto de seguridad en la actualidad para el Internet.
Seguridad de WINDOWS 2000.- Definición de usuarios y los recursos asignados, directorios, base de datos, componentes, roles. En el IIE registrar al usuario como autorizado a usar los recursos asignados. Si no está definido el usuario no puede conectarse.
Aplicativa
Aplicativo de definición de perfil de usuario, empresa, usuario, aplicativos, opciones, niveles de aprobación.
Registro de auditoría, logs de auditoría que permiten llevar control de las transacciones realizadas por los usuarios., registro de los eventos relevantes.
Sistema biométrico de ingreso del Banco Pichincha
Deep Blue
Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996 en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996
Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.
Su nombre se podría traducir al español como "Azul Oscuro", "Azul Profundo" o "Mar Profundo".
El nombre de esta computadora es un juego de palabras en el idioma original, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
A la poderosa supercomputadora de IBM que sabe jugar ajedrez, la Deep Blue, se le ha integrado un poder mas: el toque humano, para su próximo enfrentamiento con el campeón mundial de ajedrez, el ruso Gary Kasparov, en una de las revanchas más esperadas.
La computadora le gano un juego a Kasparov y empato otros dos, cuando se enfrentaron en Filadelfia en 1996. El maestro, considerado por muchos expertos como el mejor jugador de ajedrez de todos los tiempos, gano eventualmente la partida de seis juegos, pero el enfrentamiento lo dejo muy impresionado porque tuvo la sensación de que los dias de la superioridad del hombre sobre las maquinas estaban contados.
Si Deep Blue gana la revancha, programada para el 3-11 de mayo, que tiene una bolsa de un millón 100.000 dólares, los científicos de IBM, quienes han estado trabajando durante años en este proyecto, habrán dado un paso sin precedentes para la humanidad.
"El toque humano es la asesoría que tuvimos todo el tiempo del maestro de maestros en ajedrez, Joel Benjamin".Benjamin, quien trabajo con el equipo de científicos de la IBM un tiempo breve antes de la partida de 1996, ha estado con ellos todo el tiempo en esta ocasión y le ha integrado a la maquina su sabiduría y su experiencia en este juego, con la ayuda de los eruditos en computación.
Además, a Deep Blue se le aumento la memoria, se le doblo la velocidad para realizar cálculos y al procesador paralelo IBM RS/6000 se le instalaron microchips especializados para el ajedrez. Con esto, la maquina esta lista y en espera de Kasparov, quien ha tenido el cetro de campeón del mundo durante los últimos 12 anos.
Weka
Weka es un conjunto de librerías JAVA para la extracción de conocimientos desde bases de datos. Es un software ha sido desarrollado en la universidad de Waikato (Nueva Zelanda) bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
WEKA es una herramienta de aprendizaje automático y data mining, escrita en lenguaje Java, desarrollada en la Universidad de Waikato de Nueva Zelanda, distribuida de forma gratuita y publicada bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
Los puntos fuertes de Weka son:
• Está disponible libremente bajo la licencia pública general de GNU.
• Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
• Contiene una extensa colección de técnicas para preprocesamiento de datos y modelado.
• Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.
Weka soporta varias tareas estándar de minería de datos, especialmente, reprocesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka
http://www.locualo.net/programacion/introduccion-mineria-datos-weka/00000018.aspx
Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996 en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996
Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.
Su nombre se podría traducir al español como "Azul Oscuro", "Azul Profundo" o "Mar Profundo".
El nombre de esta computadora es un juego de palabras en el idioma original, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
A la poderosa supercomputadora de IBM que sabe jugar ajedrez, la Deep Blue, se le ha integrado un poder mas: el toque humano, para su próximo enfrentamiento con el campeón mundial de ajedrez, el ruso Gary Kasparov, en una de las revanchas más esperadas.
La computadora le gano un juego a Kasparov y empato otros dos, cuando se enfrentaron en Filadelfia en 1996. El maestro, considerado por muchos expertos como el mejor jugador de ajedrez de todos los tiempos, gano eventualmente la partida de seis juegos, pero el enfrentamiento lo dejo muy impresionado porque tuvo la sensación de que los dias de la superioridad del hombre sobre las maquinas estaban contados.
Si Deep Blue gana la revancha, programada para el 3-11 de mayo, que tiene una bolsa de un millón 100.000 dólares, los científicos de IBM, quienes han estado trabajando durante años en este proyecto, habrán dado un paso sin precedentes para la humanidad.
"El toque humano es la asesoría que tuvimos todo el tiempo del maestro de maestros en ajedrez, Joel Benjamin".Benjamin, quien trabajo con el equipo de científicos de la IBM un tiempo breve antes de la partida de 1996, ha estado con ellos todo el tiempo en esta ocasión y le ha integrado a la maquina su sabiduría y su experiencia en este juego, con la ayuda de los eruditos en computación.
Además, a Deep Blue se le aumento la memoria, se le doblo la velocidad para realizar cálculos y al procesador paralelo IBM RS/6000 se le instalaron microchips especializados para el ajedrez. Con esto, la maquina esta lista y en espera de Kasparov, quien ha tenido el cetro de campeón del mundo durante los últimos 12 anos.
Weka
Weka es un conjunto de librerías JAVA para la extracción de conocimientos desde bases de datos. Es un software ha sido desarrollado en la universidad de Waikato (Nueva Zelanda) bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
WEKA es una herramienta de aprendizaje automático y data mining, escrita en lenguaje Java, desarrollada en la Universidad de Waikato de Nueva Zelanda, distribuida de forma gratuita y publicada bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
Los puntos fuertes de Weka son:
• Está disponible libremente bajo la licencia pública general de GNU.
• Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
• Contiene una extensa colección de técnicas para preprocesamiento de datos y modelado.
• Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.
Weka soporta varias tareas estándar de minería de datos, especialmente, reprocesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka
http://www.locualo.net/programacion/introduccion-mineria-datos-weka/00000018.aspx
Kaspersky predice la evolución del cibercrimen
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro.
Diario Ti: Kaspersky Lab ha elaborado sus previsiones sobre cómo evolucionará el cibercrimen entre 2011 y 2020. El análisis de los principales cambios en la seguridad de la última década y las tendencias emergentes en el desarrollo de ordenadores personales, teléfonos móviles y sistemas operativos son las bases del informe.
El incremento de nuevos sistemas operativos afectará al proceso de creación de amenazas. Los ciberdelincuentes se centrarán en múltiples sistemas operativos y dispondrán de muchos dispositivos bajo control o se especializarán en ataques a empresas con plataformas basadas en Windows. La segunda opción, con toda probabilidad, será la que más interés suscite.
Dos tipos de ciberdelincuencia
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro. Hackers y CSOs se enfrentarán los unos a los otros en un campo de batalla virtual. Los organismos estatales de lucha contra la ciberdelincuencia se verán, igualmente, involucrados en el proceso y tendrán que tratar sobre todo cuestiones relacionadas con la plataforma Windows, además de las últimas versiones de los tradicionales sistemas.
El segundo grupo de ciberdelincuentes centrará sus actividades en aquellos ámbitos que afectan a nuestra cotidianeidad, como el sistema de transporte y otros servicios. Hackear y robar estos sistemas, haciendo uso libre de ellos, o el intercambio de datos personales de los usuarios serán el principal foco de atención de la nueva generación de hackers, que harán de estas actividades su medio de vida.
La evolución de Internet a convertirse en un popular medio de comunicación, entretenimiento y noticias, continuará en ascenso. La base de usuarios online se incrementará al incluir muchos dispositivos móviles inteligentes, capaces de usar la red para intercambiar o transferir información sin necesidad de intervención humana.
via : Diario Ti
Diario Ti: Kaspersky Lab ha elaborado sus previsiones sobre cómo evolucionará el cibercrimen entre 2011 y 2020. El análisis de los principales cambios en la seguridad de la última década y las tendencias emergentes en el desarrollo de ordenadores personales, teléfonos móviles y sistemas operativos son las bases del informe.
El incremento de nuevos sistemas operativos afectará al proceso de creación de amenazas. Los ciberdelincuentes se centrarán en múltiples sistemas operativos y dispondrán de muchos dispositivos bajo control o se especializarán en ataques a empresas con plataformas basadas en Windows. La segunda opción, con toda probabilidad, será la que más interés suscite.
Dos tipos de ciberdelincuencia
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro. Hackers y CSOs se enfrentarán los unos a los otros en un campo de batalla virtual. Los organismos estatales de lucha contra la ciberdelincuencia se verán, igualmente, involucrados en el proceso y tendrán que tratar sobre todo cuestiones relacionadas con la plataforma Windows, además de las últimas versiones de los tradicionales sistemas.
El segundo grupo de ciberdelincuentes centrará sus actividades en aquellos ámbitos que afectan a nuestra cotidianeidad, como el sistema de transporte y otros servicios. Hackear y robar estos sistemas, haciendo uso libre de ellos, o el intercambio de datos personales de los usuarios serán el principal foco de atención de la nueva generación de hackers, que harán de estas actividades su medio de vida.
La evolución de Internet a convertirse en un popular medio de comunicación, entretenimiento y noticias, continuará en ascenso. La base de usuarios online se incrementará al incluir muchos dispositivos móviles inteligentes, capaces de usar la red para intercambiar o transferir información sin necesidad de intervención humana.
via : Diario Ti
domingo, 13 de marzo de 2011
Sistemas Expertos
DEFINICIONES DE LOS SISTEMAS EXPERTOS
Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción lógica de conclusiones.
Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.
Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.
Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información a cerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.
Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.
Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).
Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos.
¿Por qué utilizar un Sistema Experto?
1. Con la ayuda de un Sistema Experto, personas con poca experiencia pueden resolver problemas que requieren un "conocimiento formal especializado".
2. Los Sistemas Expertos pueden obtener conclusiones y resolver problemas de forma más rápida que los expertos humanos.
3. Los Sistemas Expertos razonan pero en base a un conocimiento adquirido y no tienen sitio para la subjetividad.
4. Se ha comprobado que los Sistemas Expertos tienen al menos, la misma competencia que un especialista humano.
5. El uso de Sistemas Expertos es especialmente recomendado en las siguientes situaciones:
o Cuando los expertos humanos en una determinada materia son escasos.
o En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas.
o Cuando es muy elevado el volumen de datos que ha de considerarse para obtener una conclusión.
APLICACIONES
Sus principales aplicaciones se dan en las gestiones empresariales debido a que;
a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se esta realizando) Fiscalidad, planificación, análisis financiero y la contabilidad financiera.
Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción lógica de conclusiones.
Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.
Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.
Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información a cerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.
Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.
Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).
Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos.
¿Por qué utilizar un Sistema Experto?
1. Con la ayuda de un Sistema Experto, personas con poca experiencia pueden resolver problemas que requieren un "conocimiento formal especializado".
2. Los Sistemas Expertos pueden obtener conclusiones y resolver problemas de forma más rápida que los expertos humanos.
3. Los Sistemas Expertos razonan pero en base a un conocimiento adquirido y no tienen sitio para la subjetividad.
4. Se ha comprobado que los Sistemas Expertos tienen al menos, la misma competencia que un especialista humano.
5. El uso de Sistemas Expertos es especialmente recomendado en las siguientes situaciones:
o Cuando los expertos humanos en una determinada materia son escasos.
o En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas.
o Cuando es muy elevado el volumen de datos que ha de considerarse para obtener una conclusión.
APLICACIONES
Sus principales aplicaciones se dan en las gestiones empresariales debido a que;
a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se esta realizando) Fiscalidad, planificación, análisis financiero y la contabilidad financiera.
viernes, 11 de marzo de 2011
Teléfono móvil y el cerebro
Las llamadas de telefonía móvil alteran la actividad cerebral
Pasar 50 minutos con un móvil pegado a la oreja es suficiente para cambiar la actividad de las células cerebrales en la parte del cerebro más próxima a la antena. Sin embargo, si eso produce algún daño o no todavía no está claro.
"Lo que mostramos es que el metabolismo de la glucosa (un signo de actividad cerebral) aumenta en el cerebro de las personas que estuvieron expuestas a un teléfono móvil en la zona próxima a la antena", señaló la Dra. Nora Volkow.
FUENTE: TELEFONÍA MÓVIL
Pasar 50 minutos con un móvil pegado a la oreja es suficiente para cambiar la actividad de las células cerebrales en la parte del cerebro más próxima a la antena. Sin embargo, si eso produce algún daño o no todavía no está claro.
"Lo que mostramos es que el metabolismo de la glucosa (un signo de actividad cerebral) aumenta en el cerebro de las personas que estuvieron expuestas a un teléfono móvil en la zona próxima a la antena", señaló la Dra. Nora Volkow.
FUENTE: TELEFONÍA MÓVIL
miércoles, 2 de febrero de 2011
Google creará aplicaciones propias para Android
Diario Ti: El proceso implica además que algunos empleados de Google están siendo trasladados internamente para trabajar en el desarrollo de aplicaciones móviles para Android.
Aunque el número de aplicaciones para iOS supera con creces las disponibles para Android, difícilmente podría decirse que hay escasez en Android Market. Con todo, el número de aplicaciones desarrolladas por la propia Google es bastante limitada. Según Wall Street Journal, el número no superaría las 20 unidades y algunas estarían incorporadas en Android, mientras que otras, como Google Sky Map y Goggles son opcionales.
Asimismo, varias de las aplicaciones ofrecidas por Google también están disponibles para plataformas distintas a Android. Según las fuentes consultadas por Wall Street Journal, algunas de las aplicaciones que ahora comenzarán a ser desarrolladas serán exclusivas para Android.
La nueva ofensiva de Google para Android será desplegada en todas las oficinas internacionales de la empresa. Entre las aplicaciones de interés para la empresa figuran los juegos y servicios basados en la posición geográfica del usuario.
Según la fuente de Wall Street Journal, el proceso de contrataciones estará dirigido por Benjamin Ling, actual director de productos de búsqueda en Google. Wall Street Journal precisa que no fue posible contactar al propio Ling.
La semana pasada, Google anunció además sus planes de aumentar su plantilla, de los actuales 24.000 empleados, a 30.000.
via diario Ti
Aunque el número de aplicaciones para iOS supera con creces las disponibles para Android, difícilmente podría decirse que hay escasez en Android Market. Con todo, el número de aplicaciones desarrolladas por la propia Google es bastante limitada. Según Wall Street Journal, el número no superaría las 20 unidades y algunas estarían incorporadas en Android, mientras que otras, como Google Sky Map y Goggles son opcionales.
Asimismo, varias de las aplicaciones ofrecidas por Google también están disponibles para plataformas distintas a Android. Según las fuentes consultadas por Wall Street Journal, algunas de las aplicaciones que ahora comenzarán a ser desarrolladas serán exclusivas para Android.
La nueva ofensiva de Google para Android será desplegada en todas las oficinas internacionales de la empresa. Entre las aplicaciones de interés para la empresa figuran los juegos y servicios basados en la posición geográfica del usuario.
Según la fuente de Wall Street Journal, el proceso de contrataciones estará dirigido por Benjamin Ling, actual director de productos de búsqueda en Google. Wall Street Journal precisa que no fue posible contactar al propio Ling.
La semana pasada, Google anunció además sus planes de aumentar su plantilla, de los actuales 24.000 empleados, a 30.000.
via diario Ti
JAVACC
JavaCC (Java Compiler Compiler) es un generador de analizadores sintácticos de código abiertopara el lenguaje de programación Java. JavaCC es similar a Yacc en que genera un parser para una gramática presentada en notación BNF, con la diferencia de que la salida es en código Java. A diferencia de Yacc, JavaCC genera analizadores descendentes (top-down), lo que lo limita a la clase de gramáticas LL(K) (en particular, la recursión desde izquierda no se puede usar). El constructor de árboles que lo acompaña, JJTree, construye árboles de abajo hacia arriba (bottom-up).
JavaCC está licenciado bajo una licencia BSD.
JavaCC (Java Compiler Compiler) es una herramienta de generación automática de analizadores gramaticales basada en Java. La herramienta es propiedad de Sun Microsystems, la compañía propietaria del lenguaje Java, por lo que se ha convertido en el metacompilador más usado por los programadores en Java.
El funcionamiento de la herramienta consiste en analizar un fichero de entrada, que contiene la descripción de una gramática, y generar un conjunto de ficheros de salida, escritos en Java, que contienen la especificación de un analizador léxico y de un analizador sintáctico para la gramática especificada.
Las características más importantes de esta herramienta son las siguientes:
• Es la herramienta más utilizada en Java. Los propietarios estiman en cientos de miles el número de descargas de la herramienta y los foros de discusión congregan a miles de usuarios interesados en JavaCC.
• Se basa en una análisis sintáctico descendente recursivo.
• Por defecto JavaCC analiza gramáticas de tipo LL(1), pero permite fijar un Lookahead mayor (para analizar gramáticas LL(k)) e incluso utilizar un Lookahead adaptativo.
• Las especificaciones léxica y sintáctica de la gramática a analizar se incluyen en un mismo fichero.
• La especificación léxica se basa en expresiones regulares y la especificación sintáctica utiliza el formato EBNF.
• Junto a la herramienta principal se incluyen dos utilidades: JJTree, para crear automáticamente un generador de árboles sintácticos, y JJDoc, para generar automáticamente la documentación de la gramática en formato HTML.
• La distribución incluye numerosos ejemplos de gramáticas y existen repositorios en internet con la especificación de muchísimas gramáticas en el formato de JavaCC.
• La gestión de errores léxicos y sintácticos está basada en excepciones y contiene información muy valiosa respecto al origen del error y su posición.
• Existe un plugin para Eclipse que facilita la edición y ejecución de la herramienta dentro del desarrollo de cualquier aplicación en Java.
construir un analizador lexico con javacc
javacc
programa de practicas
manual javacc
JavaCC está licenciado bajo una licencia BSD.
JavaCC (Java Compiler Compiler) es una herramienta de generación automática de analizadores gramaticales basada en Java. La herramienta es propiedad de Sun Microsystems, la compañía propietaria del lenguaje Java, por lo que se ha convertido en el metacompilador más usado por los programadores en Java.
El funcionamiento de la herramienta consiste en analizar un fichero de entrada, que contiene la descripción de una gramática, y generar un conjunto de ficheros de salida, escritos en Java, que contienen la especificación de un analizador léxico y de un analizador sintáctico para la gramática especificada.
Las características más importantes de esta herramienta son las siguientes:
• Es la herramienta más utilizada en Java. Los propietarios estiman en cientos de miles el número de descargas de la herramienta y los foros de discusión congregan a miles de usuarios interesados en JavaCC.
• Se basa en una análisis sintáctico descendente recursivo.
• Por defecto JavaCC analiza gramáticas de tipo LL(1), pero permite fijar un Lookahead mayor (para analizar gramáticas LL(k)) e incluso utilizar un Lookahead adaptativo.
• Las especificaciones léxica y sintáctica de la gramática a analizar se incluyen en un mismo fichero.
• La especificación léxica se basa en expresiones regulares y la especificación sintáctica utiliza el formato EBNF.
• Junto a la herramienta principal se incluyen dos utilidades: JJTree, para crear automáticamente un generador de árboles sintácticos, y JJDoc, para generar automáticamente la documentación de la gramática en formato HTML.
• La distribución incluye numerosos ejemplos de gramáticas y existen repositorios en internet con la especificación de muchísimas gramáticas en el formato de JavaCC.
• La gestión de errores léxicos y sintácticos está basada en excepciones y contiene información muy valiosa respecto al origen del error y su posición.
• Existe un plugin para Eclipse que facilita la edición y ejecución de la herramienta dentro del desarrollo de cualquier aplicación en Java.
construir un analizador lexico con javacc
javacc
programa de practicas
manual javacc
ANTLR
¿Qué es y cómo funciona ANTLR?
ANTLR es un programa está escrito en java, por lo que se necesita alguna máquina virtual de java para poder ejecutarlo. Es software libre, lo que quiere decir que al descargarlo de la página oficial (http://www.antlr.org) obtendremos tanto los ficheros compilados *.class como el código fuente en forma de ficheros *.java.
ANTLR es un generador de analizadores. Mucha gente llama a estas herramientas compiladores de compiladores 15 , dado que ayudar a implementar compiladores es su uso más popular. Sin embargo tienen otros usos. ANTLR, por ejemplo, podría servir para implementar el intérprete de un fichero de configuración.
ANTLR es capaz de generar un analizador léxico, sintáctico o semántico en varios lenguajes (java, C++ y C# en su versión 2.7.2) a partir de unos ficheros escritos en un lenguaje propio.
Dicho lenguaje es básicamente una serie de reglas EBNF y un conjunto de construcciones auxiliares.
ANTLR genera analizadores pred-LL(k), y él mismo utiliza un analizador pred-LL(k) para leer los ficheros en los que están escritas las reglas EBNF. ANTLR admite acciones en sus reglas, además de otras prestaciones como paso de parámetros, devolución de valores o herencia de gramáticas.
Los analizadores en ANTLR
Ya mencionamos que ANTLR genera sus analizadores a partir de unos ficheros de entrada en los que se especifica el funcionamiento de dichos analizadores mediante el uso de reglas EBNF.
Para poder comprender los analizadores necesitaremos conocer la sintaxis de dichos ficheros de entrada.
Especificación de gramáticas con ANTLR
Los ficheros con los que trabaja ANTLR tienen la terminación *.g, y en adelante los llamaremos ficheros de especificación de gramáticas o, directamente, ficheros de gramáticas.
Un fichero de gramática contiene la definición de uno o varios analizadores. Cada uno de estos analizadores se traducirá a código nativo (java, C++ o C#, dependiendo de ciertas opciones) en forma de clases. Es decir, por cada analizador descrito en el fichero de gramáticas se generará una clase.
Todo fichero de gramática tiene la siguiente estructura:
header{
/* opciones de cabecera */
}
options
{
/* opciones generales a todo el fichero */
}
// A continuación la definición de el(los) analizadore(s).
Cabecera: Esta zona es opcional (puede aparecer o no). Delimitada por las partículas “header {” y “}”, en esta zona incluimos elementos en código nativo (java, C++ o C#) que deben preceder a la definición de las diferentes clases de los analizadores. Esta sección se utiliza para incluir otros ficheros (import e #include), definir el paquete al que pertenecerá la clase del analizador (package) etc.
• Opciones generales del fichero: Esta zona es opcional. Permite controlar algunos parámetros de ANTLR mediante “opciones”. Las opciones se representan como asignaciones:
nombreOpcion=valor;. Se utilizan mucho en ANTLR. La opción más importante de esta zona es la que permite elegir el lenguaje nativo en el que se generarán los analizadores (java,C++,C#). Su valor por defecto es “java”. Dado que vamos a generar reconocedores en java, no necesitaremos esta zona. En el manual de ANTLR aparecen todas las opciones que se pueden incluir en esta zona.
Tras las opciones generales del fichero vienen las definiciones de analizadores. Es muy común que en un mismo fichero se especifiquen varios analizadores (en la mayoría de los ejemplos que acompañan a ANTLR se utiliza esta técnica). Sin embargo también es posible definir cada analizador en un fichero, sobre todo cuando se trata de analizadores extensos.
Dado que nuestro lenguaje en este capítulo será muy sencillo, definiremos los tres analizadores en el mismo fichero.
En ANTLR, cada analizador tiene la siguiente estructura:
class nombreAnalizador extends tipoAnalizador; // definición del analizador
options {
/* Zona de opciones del analizador*/
}
tokens {
/* Zona de definición de tokens */
}
{
/* Zona de código nativo */
}
/* Zona de reglas */
Definición del analizador: En la primera línea definimos el nombre del analizador (nombreAnalizador) y su tipo (tipoAnalizador). El tipo puede será Lexer para analizadores léxicos, Parser para analizadores sintácticos y TreeParser para analizadores semánticos.
Zona de opciones: Esta zona es opcional, aunque casi siempre interesa utilizarla. En esta zona se definen propiedades muy importantes del analizador: se define el lookahead (k), si se va a generar un AST o no, en el caso de Parsers y TreeParsers, la importación/exportación de vocabulario, la activación/desactivación del tratamiento automático de errores etc
La zona de código nativo
No hay que olvidar que para ANTLR cualquier analizador es una instancia de una clase. En ocasiones es muy útil declarar métodos y atributos para dicha clase.
Para añadir métodos y variables a una clase de un analizador basta con escribirlos, entre la zona de opciones y la zona de reglas, entre llaves.
Flujo de caracteres
Para ANTLR el flujo caracteres es, simplemente “cualquier subclase de java.io.InputStream”.
Lo más normal es utilizar un flujo de caracteres provinentes de un fichero (con un FileInputStream) pero pueden utilizarse otras fuentes, como una cadena (StringBufferStream) o una página web (URL.openStream).
El InputStream que proporciona los caracteres al analizador léxico se le pasa como parámetro en su constructor.
Uno de los inconvenientes de utilizar las implementaciones de ASTs proporcionadas por ANTLR es que la visión que se tiene del árbol es muy reducida; cada nodo solamente tiene constancia de su primer hijo y de su “hermano”. Es decir, se trabaja con un árbol como el de la izquierda en la siguiente figura:
ANTLR es un programa está escrito en java, por lo que se necesita alguna máquina virtual de java para poder ejecutarlo. Es software libre, lo que quiere decir que al descargarlo de la página oficial (http://www.antlr.org) obtendremos tanto los ficheros compilados *.class como el código fuente en forma de ficheros *.java.
ANTLR es un generador de analizadores. Mucha gente llama a estas herramientas compiladores de compiladores 15 , dado que ayudar a implementar compiladores es su uso más popular. Sin embargo tienen otros usos. ANTLR, por ejemplo, podría servir para implementar el intérprete de un fichero de configuración.
ANTLR es capaz de generar un analizador léxico, sintáctico o semántico en varios lenguajes (java, C++ y C# en su versión 2.7.2) a partir de unos ficheros escritos en un lenguaje propio.
Dicho lenguaje es básicamente una serie de reglas EBNF y un conjunto de construcciones auxiliares.
ANTLR genera analizadores pred-LL(k), y él mismo utiliza un analizador pred-LL(k) para leer los ficheros en los que están escritas las reglas EBNF. ANTLR admite acciones en sus reglas, además de otras prestaciones como paso de parámetros, devolución de valores o herencia de gramáticas.
Los analizadores en ANTLR
Ya mencionamos que ANTLR genera sus analizadores a partir de unos ficheros de entrada en los que se especifica el funcionamiento de dichos analizadores mediante el uso de reglas EBNF.
Para poder comprender los analizadores necesitaremos conocer la sintaxis de dichos ficheros de entrada.
Especificación de gramáticas con ANTLR
Los ficheros con los que trabaja ANTLR tienen la terminación *.g, y en adelante los llamaremos ficheros de especificación de gramáticas o, directamente, ficheros de gramáticas.
Un fichero de gramática contiene la definición de uno o varios analizadores. Cada uno de estos analizadores se traducirá a código nativo (java, C++ o C#, dependiendo de ciertas opciones) en forma de clases. Es decir, por cada analizador descrito en el fichero de gramáticas se generará una clase.
Todo fichero de gramática tiene la siguiente estructura:
header{
/* opciones de cabecera */
}
options
{
/* opciones generales a todo el fichero */
}
// A continuación la definición de el(los) analizadore(s).
Cabecera: Esta zona es opcional (puede aparecer o no). Delimitada por las partículas “header {” y “}”, en esta zona incluimos elementos en código nativo (java, C++ o C#) que deben preceder a la definición de las diferentes clases de los analizadores. Esta sección se utiliza para incluir otros ficheros (import e #include), definir el paquete al que pertenecerá la clase del analizador (package) etc.
• Opciones generales del fichero: Esta zona es opcional. Permite controlar algunos parámetros de ANTLR mediante “opciones”. Las opciones se representan como asignaciones:
nombreOpcion=valor;. Se utilizan mucho en ANTLR. La opción más importante de esta zona es la que permite elegir el lenguaje nativo en el que se generarán los analizadores (java,C++,C#). Su valor por defecto es “java”. Dado que vamos a generar reconocedores en java, no necesitaremos esta zona. En el manual de ANTLR aparecen todas las opciones que se pueden incluir en esta zona.
Tras las opciones generales del fichero vienen las definiciones de analizadores. Es muy común que en un mismo fichero se especifiquen varios analizadores (en la mayoría de los ejemplos que acompañan a ANTLR se utiliza esta técnica). Sin embargo también es posible definir cada analizador en un fichero, sobre todo cuando se trata de analizadores extensos.
Dado que nuestro lenguaje en este capítulo será muy sencillo, definiremos los tres analizadores en el mismo fichero.
En ANTLR, cada analizador tiene la siguiente estructura:
class nombreAnalizador extends tipoAnalizador; // definición del analizador
options {
/* Zona de opciones del analizador*/
}
tokens {
/* Zona de definición de tokens */
}
{
/* Zona de código nativo */
}
/* Zona de reglas */
Definición del analizador: En la primera línea definimos el nombre del analizador (nombreAnalizador) y su tipo (tipoAnalizador). El tipo puede será Lexer para analizadores léxicos, Parser para analizadores sintácticos y TreeParser para analizadores semánticos.
Zona de opciones: Esta zona es opcional, aunque casi siempre interesa utilizarla. En esta zona se definen propiedades muy importantes del analizador: se define el lookahead (k), si se va a generar un AST o no, en el caso de Parsers y TreeParsers, la importación/exportación de vocabulario, la activación/desactivación del tratamiento automático de errores etc
La zona de código nativo
No hay que olvidar que para ANTLR cualquier analizador es una instancia de una clase. En ocasiones es muy útil declarar métodos y atributos para dicha clase.
Para añadir métodos y variables a una clase de un analizador basta con escribirlos, entre la zona de opciones y la zona de reglas, entre llaves.
Flujo de caracteres
Para ANTLR el flujo caracteres es, simplemente “cualquier subclase de java.io.InputStream”.
Lo más normal es utilizar un flujo de caracteres provinentes de un fichero (con un FileInputStream) pero pueden utilizarse otras fuentes, como una cadena (StringBufferStream) o una página web (URL.openStream).
El InputStream que proporciona los caracteres al analizador léxico se le pasa como parámetro en su constructor.
Uno de los inconvenientes de utilizar las implementaciones de ASTs proporcionadas por ANTLR es que la visión que se tiene del árbol es muy reducida; cada nodo solamente tiene constancia de su primer hijo y de su “hermano”. Es decir, se trabaja con un árbol como el de la izquierda en la siguiente figura:
lunes, 31 de enero de 2011
DEFINICION DIRIGIDA POR LA SINTAXIS
Para traducir una construcción de un lenguaje de programación, un compilador puede necesitar tener en cuenta muchas características, además del código generado para la construcción. Una definición dirigida por sintaxis es un formalismo para especificar las traducciones para las construcciones en función de atributos asociados con sus componentes sintácticos.
Utiliza una gramática independiente de contexto para especificar la estructura sintáctica de la entrada, la idea es asociar con cada símbolo de la gramática un conjunto de atributos (que luego veremos que pueden ser sintetizados o heredados) y además a cada producción un conjunto de reglas semánticas para calcular los valores de los atributos asociados con los símbolos que aparecen en esa producción. La definición dirigida por sintaxis consiste en sí entonces de la gramática y el conjunto de reglas semánticas.
Para traducir una construcción de un lenguaje de programación un compilador necesita el código generado para la construcción, y además:
• Tipo de la construcción
• Posición de la primera instrucción del código objeto
• Número de instrucciones generadas ...
Los atributos se mencionan de forma abstracta. Un atributo puede representar cualquier cantidad un tipo, una cadena, una posición de memoria o cualquier otra cosa)
• Una definición dirigida por la sintaxis es una generalización de una gramática independiente de contexto en la que cada símbolo gramatical tiene asociado un conjunto de atributos
– Especifica la traducción de una construcción en función de los atributos asociados con sus componentes sintácticos
• Un esquema de traducción es una gramática independiente de contexto en la que se asocian atributos con los símbolos gramaticales y se insertan acciones semánticas encerradas entre llaves dentro de los lados derechos de las reglas de producción
– Es una notación orientada a procedimientos que se utiliza para especificar traducciones
• Utilizan una gramática independiente de contexto para especificar la estructura sintáctica de la entrada
• A cada símbolo de la gramática se le asocia un conjunto de atributos
• A cada regla de la gramática se le asocia un conjunto de reglas semánticas para calcular los valores de los atributos asociados con los símbolos de esa regla
• La gramática y el conjunto de reglas semánticas constituyen la definición dirigida por la sintaxis
Una traducción es una transformación de una entrada en una salida. La salida para cada entrada W se especifica como sigue:
• Se construye un árbol sintáctico para W
• Suponiendo que un nodo n del árbol está etiquetado con el símbolo X de la gramática se escribe X.a para indicar el valor del atributo a de X en ese nodo
• El valor de X.a en n se calcula por la regla semántica para el atributo a asociado a la regla X utilizada en el nodo n
El árbol de análisis sintáctico que muestra los valores de los atributos en cada nodo se denomina árbol de análisis sintáctico con anotaciones
ATRIBUTOS
• El conjunto de atributos asociado a cada símbolo gramatical se divide en dos subconjuntos
– Atributos sintetizados. Se pueden calcular durante un solo recorrido ascendente del árbol de análisis sintáctico
– Atributos heredados. Sirven para expresar la dependencia de una construcción en de un lenguaje en el contexto en el que aparece
• Si se considera un nodo de un símbolo gramatical de un árbol sintáctico como un registro para guardar información entonces un atributo se corresponde con el nombre de un campo
• Un atributo puede representar cualquier cosa (una cadena, un número, un tipo, una posición de memoria.)
• El proceso de calcular los valores de los atributos en los nodos se denomina anotar o decorar el árbol de análisis sintáctico
• El valor de un atributo se define mediante la regla semántica asociada a la regla de producción utilizada en ese nodo
– El valor de un atributo sintetizado se calcula a partir de los valores de los atributos de los hijos de ese nodo en el árbol de análisis sintáctico
– El valor de un atributo heredado se calcula a partir de los valores de los atributos de los hermanos y el padre de ese nodo
• En una definición dirigida por la sintaxis, se asume que los terminales sólo tienen atributos sintetizados (la definición no proporciona ninguna regla semántica para los terminales)
Los valores para los atributos de los terminales son proporcionados generalmente por el analizador léxico
REGLAS SEMÁNTICAS
• Las reglas semánticas establecen las dependencias entre los atributos que serán representadas mediante un grafo
• El grafo de dependencias proporciona el orden de evaluación de las reglas semánticas
• La evaluación de las reglas semánticas define los valores de los atributos de los nodos del árbol
• Una regla semántica puede tener también efectos colaterales (imprimir un valor, actualizar una variable global.)
Una gramática con atributos es una definición dirigida por la sintaxis en la que las funciones de las reglas semánticas no pueden tener efectos colaterales
fuentes:
http://www.di-mare.com/adolfo/cursos/2008-1/pp-TradSintax.pdf
definicion dirigina por la sintacsis
Utiliza una gramática independiente de contexto para especificar la estructura sintáctica de la entrada, la idea es asociar con cada símbolo de la gramática un conjunto de atributos (que luego veremos que pueden ser sintetizados o heredados) y además a cada producción un conjunto de reglas semánticas para calcular los valores de los atributos asociados con los símbolos que aparecen en esa producción. La definición dirigida por sintaxis consiste en sí entonces de la gramática y el conjunto de reglas semánticas.
Para traducir una construcción de un lenguaje de programación un compilador necesita el código generado para la construcción, y además:
• Tipo de la construcción
• Posición de la primera instrucción del código objeto
• Número de instrucciones generadas ...
Los atributos se mencionan de forma abstracta. Un atributo puede representar cualquier cantidad un tipo, una cadena, una posición de memoria o cualquier otra cosa)
• Una definición dirigida por la sintaxis es una generalización de una gramática independiente de contexto en la que cada símbolo gramatical tiene asociado un conjunto de atributos
– Especifica la traducción de una construcción en función de los atributos asociados con sus componentes sintácticos
• Un esquema de traducción es una gramática independiente de contexto en la que se asocian atributos con los símbolos gramaticales y se insertan acciones semánticas encerradas entre llaves dentro de los lados derechos de las reglas de producción
– Es una notación orientada a procedimientos que se utiliza para especificar traducciones
• Utilizan una gramática independiente de contexto para especificar la estructura sintáctica de la entrada
• A cada símbolo de la gramática se le asocia un conjunto de atributos
• A cada regla de la gramática se le asocia un conjunto de reglas semánticas para calcular los valores de los atributos asociados con los símbolos de esa regla
• La gramática y el conjunto de reglas semánticas constituyen la definición dirigida por la sintaxis
Una traducción es una transformación de una entrada en una salida. La salida para cada entrada W se especifica como sigue:
• Se construye un árbol sintáctico para W
• Suponiendo que un nodo n del árbol está etiquetado con el símbolo X de la gramática se escribe X.a para indicar el valor del atributo a de X en ese nodo
• El valor de X.a en n se calcula por la regla semántica para el atributo a asociado a la regla X utilizada en el nodo n
El árbol de análisis sintáctico que muestra los valores de los atributos en cada nodo se denomina árbol de análisis sintáctico con anotaciones
ATRIBUTOS
• El conjunto de atributos asociado a cada símbolo gramatical se divide en dos subconjuntos
– Atributos sintetizados. Se pueden calcular durante un solo recorrido ascendente del árbol de análisis sintáctico
– Atributos heredados. Sirven para expresar la dependencia de una construcción en de un lenguaje en el contexto en el que aparece
• Si se considera un nodo de un símbolo gramatical de un árbol sintáctico como un registro para guardar información entonces un atributo se corresponde con el nombre de un campo
• Un atributo puede representar cualquier cosa (una cadena, un número, un tipo, una posición de memoria.)
• El proceso de calcular los valores de los atributos en los nodos se denomina anotar o decorar el árbol de análisis sintáctico
• El valor de un atributo se define mediante la regla semántica asociada a la regla de producción utilizada en ese nodo
– El valor de un atributo sintetizado se calcula a partir de los valores de los atributos de los hijos de ese nodo en el árbol de análisis sintáctico
– El valor de un atributo heredado se calcula a partir de los valores de los atributos de los hermanos y el padre de ese nodo
• En una definición dirigida por la sintaxis, se asume que los terminales sólo tienen atributos sintetizados (la definición no proporciona ninguna regla semántica para los terminales)
Los valores para los atributos de los terminales son proporcionados generalmente por el analizador léxico
REGLAS SEMÁNTICAS
• Las reglas semánticas establecen las dependencias entre los atributos que serán representadas mediante un grafo
• El grafo de dependencias proporciona el orden de evaluación de las reglas semánticas
• La evaluación de las reglas semánticas define los valores de los atributos de los nodos del árbol
• Una regla semántica puede tener también efectos colaterales (imprimir un valor, actualizar una variable global.)
Una gramática con atributos es una definición dirigida por la sintaxis en la que las funciones de las reglas semánticas no pueden tener efectos colaterales
fuentes:
http://www.di-mare.com/adolfo/cursos/2008-1/pp-TradSintax.pdf
definicion dirigina por la sintacsis
domingo, 30 de enero de 2011
Hethical hacking
Ethical Hacking
Contexto actual
Los atacantes externos protagonizan el mayor número de incidentes (70%), pero son los que menos impacto tiene, 30.000 registros comprometidos.
Los atacantes internos protagonizan solo el 48% pero por el contrario son los que más impacto han tenido.
Causas de los ataques.
El 48% de los incidentes son atribuidos a errores de gestión en la seguridad
El 38% de los incidentes tuvieron éxito como consecuencia de actividades de hacking
El 28% de los incidentes incorporan código malicioso
Otros datos significativos
Tres de cada cuatro incidentes no fueron descubiertos por las víctimas, la mayoría de los ataques no eran sofisticados
El 85% de los objetivos son oportunísimos y no dirigidos.
Principales riesgos
• Riesgos asociados a la infraestructura de frontera
• Ataques de negación de servicios.(tratar de hacer que un servicio no responda a los servicios requeridos)
• Riesgos asociados a la red interna
• Riesgos asociados a las aplicaciones
Exploits
Modelo de seguridad.
• Riesgos tecnológicos
• Soluciones tecnológicas
• Marco normativo
• Continuidad del negocio
• Control de calidad
• Administración de riesgos permanentes
Hacker.
Persona con especial habilidad con los ordenadores que puede resolver por si mismo los problemas que su funcionamiento le plantee.
El mundo de los sombreros
• White hat: Chicos buenos
• Grey hat: mercenarios
• Black hat: los chicos malos
Hacking ético
Objetivos
• Realizar un intento de intrusión controlada a los sistemas de información de una compañía, con el objetivo de detectar vulnerabilidades.
Ambientes de penetración.
• Caja blanca (con información del objetivo)
• Caja negra (sin información del objetivo)
• Caja Gris (Intermedio)
Tipos de pruebas
• Externas
• Internas
• Wireless
• Basados en tiempo y costo
Enfoque metodológico
1. Descovery.- identificación y adquisición de host
2. Enumeración.- Port scanning de campos torgets
3. Identificación de vulnerabilidades
4. Explotación.- de vulnerabilidades.
Ataques de seguridad
• Exploits
Programa o técnica que aprovecha una vulnerabilidad, método concreto de usar un error de algún programa
• Denial of service
• Análisis de trafico de Red(sniffing)
Estos ataques consisten en espiar los paquetes de datos que son destinados a otros dispositivos de red
• Robo de Servicios (Hijacking), estos ataques permiten tomar el control de coneccion entre dos computadoras.
Contexto actual
Los atacantes externos protagonizan el mayor número de incidentes (70%), pero son los que menos impacto tiene, 30.000 registros comprometidos.
Los atacantes internos protagonizan solo el 48% pero por el contrario son los que más impacto han tenido.
Causas de los ataques.
El 48% de los incidentes son atribuidos a errores de gestión en la seguridad
El 38% de los incidentes tuvieron éxito como consecuencia de actividades de hacking
El 28% de los incidentes incorporan código malicioso
Otros datos significativos
Tres de cada cuatro incidentes no fueron descubiertos por las víctimas, la mayoría de los ataques no eran sofisticados
El 85% de los objetivos son oportunísimos y no dirigidos.
Principales riesgos
• Riesgos asociados a la infraestructura de frontera
• Ataques de negación de servicios.(tratar de hacer que un servicio no responda a los servicios requeridos)
• Riesgos asociados a la red interna
• Riesgos asociados a las aplicaciones
Exploits
Modelo de seguridad.
• Riesgos tecnológicos
• Soluciones tecnológicas
• Marco normativo
• Continuidad del negocio
• Control de calidad
• Administración de riesgos permanentes
Hacker.
Persona con especial habilidad con los ordenadores que puede resolver por si mismo los problemas que su funcionamiento le plantee.
El mundo de los sombreros
• White hat: Chicos buenos
• Grey hat: mercenarios
• Black hat: los chicos malos
Hacking ético
Objetivos
• Realizar un intento de intrusión controlada a los sistemas de información de una compañía, con el objetivo de detectar vulnerabilidades.
Ambientes de penetración.
• Caja blanca (con información del objetivo)
• Caja negra (sin información del objetivo)
• Caja Gris (Intermedio)
Tipos de pruebas
• Externas
• Internas
• Wireless
• Basados en tiempo y costo
Enfoque metodológico
1. Descovery.- identificación y adquisición de host
2. Enumeración.- Port scanning de campos torgets
3. Identificación de vulnerabilidades
4. Explotación.- de vulnerabilidades.
Ataques de seguridad
• Exploits
Programa o técnica que aprovecha una vulnerabilidad, método concreto de usar un error de algún programa
• Denial of service
• Análisis de trafico de Red(sniffing)
Estos ataques consisten en espiar los paquetes de datos que son destinados a otros dispositivos de red
• Robo de Servicios (Hijacking), estos ataques permiten tomar el control de coneccion entre dos computadoras.
jueves, 27 de enero de 2011
Noticia
Google comienza a censurar búsquedas piratas
[ 27/01/2011 - 08:42 CET ]
Los usuarios que intenten realizar búsquedas que contengan las palabras BitTorrent, torrent, uTorrent, RapidShare o MegaUpload verán a partir de ahora que Google no completa automáticamente las palabras ni tampoco genera automáticamente los resultados.
Diario Ti: Este procedimiento es resultado de un acuerdo al que ha llegado Google con la industria estadounidense del entretenimiento, representada por RIAA (Recording Industry Association of America) y MPAA (Motion Picture Association of America).
Desde hace tiempo, ambas organizaciones han presionado a Google y otros buscadores, instándolos a tomar medidas que dificulten a sus usuarios la búsqueda de material ilegal en Internet.
La nueva censura ha generado críticas por considerarse que los resultados de los servicios de torrents no siempre apuntan a material ilegal.
Dos ejemplos de lo anterior; es decir, de uso legítimo de torrents, son Ubuntu y OpenOffice.org. Algunos canales de televisión y proveedores de contenidos también publican parte de su material vía torrents.
Con todo, es un hecho que la mayoría de los torrents apuntan a películas, música, software y juegos pirateados, lo que sería la razón que llevó a Google a participar en su censura.
Prácticamente todas las combinaciones de frases que incluyen la palabra "torrent" han sido eliminadas de las funciones auto complete y búsqueda instantánea de Google. El sistema continúa generando resultados de torrents, legítimos e ilegítimos, al hacer una búsqueda manual, "a la antigua".
En otras palabras, el efecto de la nueva medida de Google es equivalente a cero.
Fuentes: TorrentFreak.com y Techcrunch.com
via:Diario Ti
[ 27/01/2011 - 08:42 CET ]
Los usuarios que intenten realizar búsquedas que contengan las palabras BitTorrent, torrent, uTorrent, RapidShare o MegaUpload verán a partir de ahora que Google no completa automáticamente las palabras ni tampoco genera automáticamente los resultados.
Diario Ti: Este procedimiento es resultado de un acuerdo al que ha llegado Google con la industria estadounidense del entretenimiento, representada por RIAA (Recording Industry Association of America) y MPAA (Motion Picture Association of America).
Desde hace tiempo, ambas organizaciones han presionado a Google y otros buscadores, instándolos a tomar medidas que dificulten a sus usuarios la búsqueda de material ilegal en Internet.
La nueva censura ha generado críticas por considerarse que los resultados de los servicios de torrents no siempre apuntan a material ilegal.
Dos ejemplos de lo anterior; es decir, de uso legítimo de torrents, son Ubuntu y OpenOffice.org. Algunos canales de televisión y proveedores de contenidos también publican parte de su material vía torrents.
Con todo, es un hecho que la mayoría de los torrents apuntan a películas, música, software y juegos pirateados, lo que sería la razón que llevó a Google a participar en su censura.
Prácticamente todas las combinaciones de frases que incluyen la palabra "torrent" han sido eliminadas de las funciones auto complete y búsqueda instantánea de Google. El sistema continúa generando resultados de torrents, legítimos e ilegítimos, al hacer una búsqueda manual, "a la antigua".
En otras palabras, el efecto de la nueva medida de Google es equivalente a cero.
Fuentes: TorrentFreak.com y Techcrunch.com
via:Diario Ti
miércoles, 26 de enero de 2011
METODOLOGIAS DE DESARROLLO SOFTWARE
Una metodología de desarrollo de software se refiere a un framework que es usado para estructurar, planear y controlar el proceso de desarrollo en sistemas de información.
A lo largo del tiempo, una gran cantidad de métodos han sido desarrollados diferenciándose por su fortaleza y debilidad.
El framework para metodología de desarrollo de software consiste en:
Una filosofía de desarrollo de software con el enfoque del proceso de desarrollo de software
Herramientas, modelos y métodos para asistir al proceso de desarrollo de software
Estos frameworks son a menudo vinculados a algún tipo de organización, que además desarrolla, apoya el uso y promueve la metodología. La metodología es a menudo documentada en algún tipo de documentación formal.
A lo largo del tiempo, una gran cantidad de métodos han sido desarrollados diferenciándose por su fortaleza y debilidad.
El framework para metodología de desarrollo de software consiste en:
Una filosofía de desarrollo de software con el enfoque del proceso de desarrollo de software
Herramientas, modelos y métodos para asistir al proceso de desarrollo de software
Estos frameworks son a menudo vinculados a algún tipo de organización, que además desarrolla, apoya el uso y promueve la metodología. La metodología es a menudo documentada en algún tipo de documentación formal.
e-learning
¿Qué es el e-learning?
E-learning es cualquier medio electrónico de distribución, participación y apoyo al aprendizaje, normalmente, mediante Internet y de servicios de medios electrónicos relacionados como el aprendizaje por ordenador, las aulas virtuales y la colaboración digital.
Actores del E-learning
El profesor o instructor, que imparte la enseñanza y le presta apoyo.
El diseñador, que reúne todos los elementos del programa.
El equipo técnico, que garantiza que el sistema funcione satisfactoriamente. Su conocimiento experto incluye la resolución de problemas de hardware, de sistema y de funcionamiento en red.
Actores del E-learning
El proveedor comercial, que ofrece productos y servicios nuevos.
La‘dirección, que se encarga de que haya financiación y otros recursos disponibles. Es habitual que la dirección decida el sistema que se utiliza.
El usuario o grupo de usuarios. El conocimiento experto del usuario es su experiencia y confianza previas en ele-learning ,las preferencias de aprendizaje, la motivación personal, y el conocimiento y las aspiraciones previas.
Cada uno de los seis actores tiene un lenguaje y un conjunto de prioridades distinto. Antes de que apareciera ele-learning.
Características del e-learning
Para autores como Berlanga, Bosomy Hernández (2007, p. 31), las características fundamentales del e-learning son:
•Elimina las distancias físicas.
•Permite flexibilidad espacial y horaria.
•Favorece la interacción.
•Facilita el aprendizaje permanente durante toda la vida.
•El profesor no es el depositario del conocimiento.
•Atiende a muchos en grupos reducidos.
•Creación compartida de conocimiento.
•Favorece la integración de colectivos desfavorecidos.
•Reutiliza los contenidos formativos.
Ventajas del e-learning
Para Cabero (2006a, p. 3) , las ventajas son:
•Pone a disposición de los alumnos un amplio volumen de información.
•Facilita la actualización de la información y de los contenidos.
•Flexibiliza la información, independientemente del espacio y el tiempo en el cual se encuentren el profesor y el estudiante.
•Permite la deslocalización del conocimiento.
•Facilita la autonomía del estudiante.
•Propiciaunaformaciónjust in time y just for me.
Visión Mundial
•La Universidad de Anadolu(Turquía), llega a más de 500.000 estudiantes de educación a distancia, fue creada en el año 1981.
•La Universidad Abierta de Hong Kong se inauguró en el año 1989 con el objetivo de dar servicio a los residentes de esta enorme área metropolitana.
•En África, la educación a distancia esta en un nivel básico.
•China desarrolló un sistema de universidad nacional por radio y televisión.
•Europa:
–Open Universitydel Reino Unido.
–La Universidad Nacional de Educación a Distancia de España.
–La UniversitatObertade Catalunya, UOCde España.
•Estados Unidos:
El proyecto StarSchools(CK-12)que proporcionan instrucción por satélite:
–Iowa.
–Dakota del Sur.
–http://about.ck12.org/about/
Ventajas de Estudiar Virtualmente
•Se está siempre dentro del mercado laboral.
•Se está cerca de la familia.
•Flexibilidad de tiempo y espacio.
•El conocimiento se acerca más rápido al entorno donde nos desarrollamos.
•Las investigaciones o estudios son pertinentes al ámbito local.
•Se disminuyen las fugas de cerebros.
Claves para el éxito al momento de estudiar virtual
•Definición clara de que se va a estudiar y
por qué?
•Gestión adecuada del tiempo.
•Estabilidad laboral.
•Estabilidad sentimental.
•Apoyo de círculo cercano al estudiante:
–Familia.
–Amigos.
E-learning es cualquier medio electrónico de distribución, participación y apoyo al aprendizaje, normalmente, mediante Internet y de servicios de medios electrónicos relacionados como el aprendizaje por ordenador, las aulas virtuales y la colaboración digital.
Actores del E-learning
El profesor o instructor, que imparte la enseñanza y le presta apoyo.
El diseñador, que reúne todos los elementos del programa.
El equipo técnico, que garantiza que el sistema funcione satisfactoriamente. Su conocimiento experto incluye la resolución de problemas de hardware, de sistema y de funcionamiento en red.
Actores del E-learning
El proveedor comercial, que ofrece productos y servicios nuevos.
La‘dirección, que se encarga de que haya financiación y otros recursos disponibles. Es habitual que la dirección decida el sistema que se utiliza.
El usuario o grupo de usuarios. El conocimiento experto del usuario es su experiencia y confianza previas en ele-learning ,las preferencias de aprendizaje, la motivación personal, y el conocimiento y las aspiraciones previas.
Cada uno de los seis actores tiene un lenguaje y un conjunto de prioridades distinto. Antes de que apareciera ele-learning.
Características del e-learning
Para autores como Berlanga, Bosomy Hernández (2007, p. 31), las características fundamentales del e-learning son:
•Elimina las distancias físicas.
•Permite flexibilidad espacial y horaria.
•Favorece la interacción.
•Facilita el aprendizaje permanente durante toda la vida.
•El profesor no es el depositario del conocimiento.
•Atiende a muchos en grupos reducidos.
•Creación compartida de conocimiento.
•Favorece la integración de colectivos desfavorecidos.
•Reutiliza los contenidos formativos.
Ventajas del e-learning
Para Cabero (2006a, p. 3) , las ventajas son:
•Pone a disposición de los alumnos un amplio volumen de información.
•Facilita la actualización de la información y de los contenidos.
•Flexibiliza la información, independientemente del espacio y el tiempo en el cual se encuentren el profesor y el estudiante.
•Permite la deslocalización del conocimiento.
•Facilita la autonomía del estudiante.
•Propiciaunaformaciónjust in time y just for me.
Visión Mundial
•La Universidad de Anadolu(Turquía), llega a más de 500.000 estudiantes de educación a distancia, fue creada en el año 1981.
•La Universidad Abierta de Hong Kong se inauguró en el año 1989 con el objetivo de dar servicio a los residentes de esta enorme área metropolitana.
•En África, la educación a distancia esta en un nivel básico.
•China desarrolló un sistema de universidad nacional por radio y televisión.
•Europa:
–Open Universitydel Reino Unido.
–La Universidad Nacional de Educación a Distancia de España.
–La UniversitatObertade Catalunya, UOCde España.
•Estados Unidos:
El proyecto StarSchools(CK-12)que proporcionan instrucción por satélite:
–Iowa.
–Dakota del Sur.
–http://about.ck12.org/about/
Ventajas de Estudiar Virtualmente
•Se está siempre dentro del mercado laboral.
•Se está cerca de la familia.
•Flexibilidad de tiempo y espacio.
•El conocimiento se acerca más rápido al entorno donde nos desarrollamos.
•Las investigaciones o estudios son pertinentes al ámbito local.
•Se disminuyen las fugas de cerebros.
Claves para el éxito al momento de estudiar virtual
•Definición clara de que se va a estudiar y
por qué?
•Gestión adecuada del tiempo.
•Estabilidad laboral.
•Estabilidad sentimental.
•Apoyo de círculo cercano al estudiante:
–Familia.
–Amigos.
segunda conferencia
COBIT: UNA BUENA PRACTICA DE GESTION DE PROCESOS DE TICs
Agenda de la Sesión
Los tópicos para esta sesión son:
Características del marco de control
El marco de Trabajo del COBIT
El cubo COBIT
Introducción al Val IT
Objetivos
Al final de esta sesión, usted estará en capacidad de:
Identificar cómo COBIT soporta las características de un marco de control
Entender las premisas del marco de trabajo de COBIT
Identificar los componentes y funciones del marco de trabajo de COBIT
Identificar el rol de los procesos de TI de COBIT y los cuatro dominios de TI
Entender los recursos de TI y los criterios de información
Características de un marco de control
COBIT se enfoca en la mejora del gobierno de las TI en las organizaciones
COBIT brinda un marco de trabajo para administrar y controlar las actividades de TI y sustenta cinco requerimientos para un marco de control
Características de un marco de control. Enfoque en el negocio
COBIT consigue un enfoque fuerte en el negocio al alinear TI con los objetivos del negocio
La medición del desempeño de TI debe enfocarse sobre la contribución de TI para ser posible y expandir la estrategia de negocios
COBIT, sustentado en métricas apropiadas enfocadas en el negocio, puede asegurar que el punto focal primario es la entrega de valor y no la excelencia técnica como un fin en sí mismo
Orientación a procesos
Cuando las organizaciones implementan COBIT su enfoque es más orientado a procesos
Los incidentes y problemas ya no desvían la atención de los procesos
Las excepciones pueden ser claramente definidas como parte de un procesos estándar
Con la propiedad de los procesos definida, asignada y aceptada, la organización está mejor capacitada para mantener el control durante los períodos de cambios rápidos o crisis organizacional
Aceptación General
COBIT es un estándar probado y globalmente aceptado para incrementar la contribución de TI al éxito organizacional
El marco de trabajo continúa mejorando y desarrollándose para mantenerse al ritmo de las mejores prácticas
Los profesionales de TI de todo el mundo contribuyen con sus ideas y tiempo en reuniones periódicas de revisión.
Requerimientos Regulatorios
Los escándalos corporativos recientes han incrementado las presiones regulatorias sobre la junta directiva para informar su estado de asegurar que los controles internos son apropiados. Esto abarca también los controles de TI
Las organizaciones constantemente necesitan mejorar el desempeño de TI y demostrar que los controles sobre las actividades de TI son adecuados
Muchos gerentes de TI, asesores y auditores están cambiando a COBIT como la respuesta de facto a los requerimientos regulatorios sobre TI
Lenguaje común
Un marco de trabajo ayuda a tener a todos “sintonizados en el mismo canal” al definir términos críticos y brindar un glosario
La coordinación dentro y a través de los equipos de proyectos y las organizaciones pueden jugar un rol clave en el éxito de cualquier proyecto.
Un lenguaje común construye seguridad y confianza
El marco de referencia COBIT
Las principales características de COBIT son:
Enfocado de negocio
Orientado a los procesos
Basado en los controles
Guiado por la medición
El acrónimo COBIT proviene de Control Objetives for Information an related Technology (Objetivos de Control para la Información y Tecnología Relacionada)
El cubo COBIT: Procesos del TI
COBIT describe el ciclo de vida de TI con la ayuda de cuatro dominios:
•Planear y organizar
•Adquirir e implementar
•Entregar y dar soporte
•Monitorear y evaluar
Procesos son series de actividades con cortes de control naturales. Existen 34 procesos a través de los cuatro dominios. Estos procesos especifican lo que el negocio necesita para lograr sus objetivos. La entrega de información es controlada a través de 34 objetivos de control de alto nivel, uno para cada proceso.
Actividades son acciones que se requieren para obtener resultados medibles. Además, las actividades tienen ciclos de vida e incluyen varias tareas discretas
COBIT- Valor y Limitaciones
COBIT:
Tiene las mejores prácticas aceptadas internacionalmente
Está orientado a la administración
Está soportado por herramientas y entrenamiento
Está disponible libremente como un estándar abierto
Permite compartir y extraer el comportamiento de voluntarios expertos
Evoluciona continuamente
Es mantenido por una organización no lucrativa y de gran reputación
Mapea el 100% con COSO.
Mapea fuertemente con todos los principales estándares relacionados
Es una referencia no una medicina “lista para tomar”
Las empresas necesitan analizar los requerimientos de control y adaptar COBIT basado en los siguientes aspectos de la empresa:
Conductores de valor
Perfil de riesgo
Infraestructura de TI, organización y portafolio de proyectos
COBIT: Ventajas
Algunas de las ventajas de adoptar COBIT son:
COBIT está alineado con otros estándares y mejores prácticas y podrían ser usados junto con ellos
El marco de trabajo de COBIT y las mejores prácticas que lo apoyan brinda un ambiente de TI flexible y bien administrado en una organización
COBIT brinda un ambiente de control que responde a las necesidades de negocio y le sirve a las funciones gerenciales y de auditoría en términos de sus responsabilidades de control
COBIT brinda herramientas para ayudar a administrar las actividades de TI
Agenda de la Sesión
Los tópicos para esta sesión son:
Características del marco de control
El marco de Trabajo del COBIT
El cubo COBIT
Introducción al Val IT
Objetivos
Al final de esta sesión, usted estará en capacidad de:
Identificar cómo COBIT soporta las características de un marco de control
Entender las premisas del marco de trabajo de COBIT
Identificar los componentes y funciones del marco de trabajo de COBIT
Identificar el rol de los procesos de TI de COBIT y los cuatro dominios de TI
Entender los recursos de TI y los criterios de información
Características de un marco de control
COBIT se enfoca en la mejora del gobierno de las TI en las organizaciones
COBIT brinda un marco de trabajo para administrar y controlar las actividades de TI y sustenta cinco requerimientos para un marco de control
Características de un marco de control. Enfoque en el negocio
COBIT consigue un enfoque fuerte en el negocio al alinear TI con los objetivos del negocio
La medición del desempeño de TI debe enfocarse sobre la contribución de TI para ser posible y expandir la estrategia de negocios
COBIT, sustentado en métricas apropiadas enfocadas en el negocio, puede asegurar que el punto focal primario es la entrega de valor y no la excelencia técnica como un fin en sí mismo
Orientación a procesos
Cuando las organizaciones implementan COBIT su enfoque es más orientado a procesos
Los incidentes y problemas ya no desvían la atención de los procesos
Las excepciones pueden ser claramente definidas como parte de un procesos estándar
Con la propiedad de los procesos definida, asignada y aceptada, la organización está mejor capacitada para mantener el control durante los períodos de cambios rápidos o crisis organizacional
Aceptación General
COBIT es un estándar probado y globalmente aceptado para incrementar la contribución de TI al éxito organizacional
El marco de trabajo continúa mejorando y desarrollándose para mantenerse al ritmo de las mejores prácticas
Los profesionales de TI de todo el mundo contribuyen con sus ideas y tiempo en reuniones periódicas de revisión.
Requerimientos Regulatorios
Los escándalos corporativos recientes han incrementado las presiones regulatorias sobre la junta directiva para informar su estado de asegurar que los controles internos son apropiados. Esto abarca también los controles de TI
Las organizaciones constantemente necesitan mejorar el desempeño de TI y demostrar que los controles sobre las actividades de TI son adecuados
Muchos gerentes de TI, asesores y auditores están cambiando a COBIT como la respuesta de facto a los requerimientos regulatorios sobre TI
Lenguaje común
Un marco de trabajo ayuda a tener a todos “sintonizados en el mismo canal” al definir términos críticos y brindar un glosario
La coordinación dentro y a través de los equipos de proyectos y las organizaciones pueden jugar un rol clave en el éxito de cualquier proyecto.
Un lenguaje común construye seguridad y confianza
El marco de referencia COBIT
Las principales características de COBIT son:
Enfocado de negocio
Orientado a los procesos
Basado en los controles
Guiado por la medición
El acrónimo COBIT proviene de Control Objetives for Information an related Technology (Objetivos de Control para la Información y Tecnología Relacionada)
El cubo COBIT: Procesos del TI
COBIT describe el ciclo de vida de TI con la ayuda de cuatro dominios:
•Planear y organizar
•Adquirir e implementar
•Entregar y dar soporte
•Monitorear y evaluar
Procesos son series de actividades con cortes de control naturales. Existen 34 procesos a través de los cuatro dominios. Estos procesos especifican lo que el negocio necesita para lograr sus objetivos. La entrega de información es controlada a través de 34 objetivos de control de alto nivel, uno para cada proceso.
Actividades son acciones que se requieren para obtener resultados medibles. Además, las actividades tienen ciclos de vida e incluyen varias tareas discretas
COBIT- Valor y Limitaciones
COBIT:
Tiene las mejores prácticas aceptadas internacionalmente
Está orientado a la administración
Está soportado por herramientas y entrenamiento
Está disponible libremente como un estándar abierto
Permite compartir y extraer el comportamiento de voluntarios expertos
Evoluciona continuamente
Es mantenido por una organización no lucrativa y de gran reputación
Mapea el 100% con COSO.
Mapea fuertemente con todos los principales estándares relacionados
Es una referencia no una medicina “lista para tomar”
Las empresas necesitan analizar los requerimientos de control y adaptar COBIT basado en los siguientes aspectos de la empresa:
Conductores de valor
Perfil de riesgo
Infraestructura de TI, organización y portafolio de proyectos
COBIT: Ventajas
Algunas de las ventajas de adoptar COBIT son:
COBIT está alineado con otros estándares y mejores prácticas y podrían ser usados junto con ellos
El marco de trabajo de COBIT y las mejores prácticas que lo apoyan brinda un ambiente de TI flexible y bien administrado en una organización
COBIT brinda un ambiente de control que responde a las necesidades de negocio y le sirve a las funciones gerenciales y de auditoría en términos de sus responsabilidades de control
COBIT brinda herramientas para ayudar a administrar las actividades de TI
conferencias del miercoles 26 de enero
primera conferencia
OPEN ERP
OpenERP es un software completo de gestión empresarial, libre y OpenSource. Maneja:
● Contabilidad
● CRM
● Gestión de Ventas
● Fabricación
● Gestión de proyectos
● Recursos Humanos
● Inventarios, etc.
Es completamente modular, permite agregar rápidamente nuevas características y construir soluciones poderosas y altamente integradas.
● OpenERP está presente en más de 45 países, existen más de 350 módulos, y diariamente se realizan al rededor de 700 instalaciones.
● Está construido sobre el RAD OpenObject
● Licencia:
El Framework OpenObject
Características principales
● Modulos
● ORM
● Workflows
● Migraciones y test automatizados
● Diseñador de Reportes
● Estadísticas
● Web Services
Flexibilidad
● Gestor de módulos visual, integrado
● Cientos de módulos disponibles
● Web-services XML - RPC
● Integración con Asterisk, OSCommerce, Magento,
GoogleCalendar
● Reportes integrados con MSOffice y OpenOfice
Estructura de un Módulo de OpenERP
|--moduloopenerp
|------|-------- demo/ Datos para pruebas y demostraciones
|-------- i18n/ Archivos de localización (traducción)
|-------- report/ Definiciones de reportes
|-------- security/ Declaración de grupos y derechos de acceso
|-------- view/ Vistas: formularios, listas, arboles, menus, acciones
|-------- wizard/ Definiciones de Asistentes
|-------- workflow/ Definiciones de flujos de trabajo
|-------- __init__.py Inicialización de paquete de python (obligatorio)
|-------- __terp__.py Declaración de módulo (obligatorio)
|-------- modulo.py Clases python (objetos del modulo)
● modulo.py: Objetos de Negocio declarados en Python y extendidos de osv.osv
● view/: archivos xml con declaración de vistas y flujos de trabajo(workflow)
● data/: Archivos xml, cvs con datos de configuración de módulos y también datos de prueba
● wizard/: Ventanas de diálogo para mayo ayuda de los usuarios.
● report/: Plantillas RML, MAKO u OpenOffice que generan reportes en HTML, ODT o PDF.
Herramientas de la Comunidad
Sitio Web: www.openerp.com
Foros: www.openobject.com/forum
Videos: www.openerp.com/tv
Enlaces:
www.openerpargentina.com.ar
OPEN ERP
OpenERP es un software completo de gestión empresarial, libre y OpenSource. Maneja:
● Contabilidad
● CRM
● Gestión de Ventas
● Fabricación
● Gestión de proyectos
● Recursos Humanos
● Inventarios, etc.
Es completamente modular, permite agregar rápidamente nuevas características y construir soluciones poderosas y altamente integradas.
● OpenERP está presente en más de 45 países, existen más de 350 módulos, y diariamente se realizan al rededor de 700 instalaciones.
● Está construido sobre el RAD OpenObject
● Licencia:
El Framework OpenObject
Características principales
● Modulos
● ORM
● Workflows
● Migraciones y test automatizados
● Diseñador de Reportes
● Estadísticas
● Web Services
Flexibilidad
● Gestor de módulos visual, integrado
● Cientos de módulos disponibles
● Web-services XML - RPC
● Integración con Asterisk, OSCommerce, Magento,
GoogleCalendar
● Reportes integrados con MSOffice y OpenOfice
Estructura de un Módulo de OpenERP
|--moduloopenerp
|------|-------- demo/ Datos para pruebas y demostraciones
|-------- i18n/ Archivos de localización (traducción)
|-------- report/ Definiciones de reportes
|-------- security/ Declaración de grupos y derechos de acceso
|-------- view/ Vistas: formularios, listas, arboles, menus, acciones
|-------- wizard/ Definiciones de Asistentes
|-------- workflow/ Definiciones de flujos de trabajo
|-------- __init__.py Inicialización de paquete de python (obligatorio)
|-------- __terp__.py Declaración de módulo (obligatorio)
|-------- modulo.py Clases python (objetos del modulo)
● modulo.py: Objetos de Negocio declarados en Python y extendidos de osv.osv
● view/: archivos xml con declaración de vistas y flujos de trabajo(workflow)
● data/: Archivos xml, cvs con datos de configuración de módulos y también datos de prueba
● wizard/: Ventanas de diálogo para mayo ayuda de los usuarios.
● report/: Plantillas RML, MAKO u OpenOffice que generan reportes en HTML, ODT o PDF.
Herramientas de la Comunidad
Sitio Web: www.openerp.com
Foros: www.openobject.com/forum
Videos: www.openerp.com/tv
Enlaces:
www.openerpargentina.com.ar
martes, 25 de enero de 2011
segunda conferencia
SISTEMA DE GESTIÓN DOCUMENTAL QUIPUX
La Comunidad Quipux es una asociación de personas que han hecho causa común para fomentar el desarrollo social y económico alrededor de Quipux. Quipux es un sistema de gestión documental con acceso web.
Funcionalidad:
Servicio web
Está a disposición de instituciones publicas
Sistema de gestión documental
Utiliza Centos y como base de datos Postgree
Servicios:
Creación, envío, recepción, almacenamiento, recuperación y clasificación de memorandos, oficios, circulares y anexos.
Creación compartida de documentos. Flujo de documentos conforme al orgánico regular.
Acceso al sistema de usuarios internos y externos (ciudadanos) a los documentos de una institución.
Reportes estadísticos de documentos creados y enviados, tramitados, pendientes, archivados y reasignados.
Seguridad y auditoría a través de usuarios, perfiles ya archivos de auditoría.
Firma digital de documentos generados.
Recepción en línea de documentos generados en el sistema y de documentos impresos registrados.
Organización
Organización de archivo digital
Organización de archivo físico
Codificación documental
Administración interna de usuarios
Entrega de comprobante a usuarios
Uso de código de barras para documentación
Utilitarios adicionales
Ventajas
Ahorro de espacio físico para almacenamiento de documentos
Disminución del riesgo de la perdidas por incendios, robos, inundaciones, otros.
Conservación intacta de los documentos a lo largo del tiempo.
Acceso inmediato a los documentos independientemente del lugar geográfico
Búsqueda de documentos definiendo criterios de acceso de forma flexible y fácil
Consulta simultanea de varios lectores
Apoyo a la conservación del ambiente
La Comunidad Quipux es una asociación de personas que han hecho causa común para fomentar el desarrollo social y económico alrededor de Quipux. Quipux es un sistema de gestión documental con acceso web.
Funcionalidad:
Servicio web
Está a disposición de instituciones publicas
Sistema de gestión documental
Utiliza Centos y como base de datos Postgree
Servicios:
Creación, envío, recepción, almacenamiento, recuperación y clasificación de memorandos, oficios, circulares y anexos.
Creación compartida de documentos. Flujo de documentos conforme al orgánico regular.
Acceso al sistema de usuarios internos y externos (ciudadanos) a los documentos de una institución.
Reportes estadísticos de documentos creados y enviados, tramitados, pendientes, archivados y reasignados.
Seguridad y auditoría a través de usuarios, perfiles ya archivos de auditoría.
Firma digital de documentos generados.
Recepción en línea de documentos generados en el sistema y de documentos impresos registrados.
Organización
Organización de archivo digital
Organización de archivo físico
Codificación documental
Administración interna de usuarios
Entrega de comprobante a usuarios
Uso de código de barras para documentación
Utilitarios adicionales
Ventajas
Ahorro de espacio físico para almacenamiento de documentos
Disminución del riesgo de la perdidas por incendios, robos, inundaciones, otros.
Conservación intacta de los documentos a lo largo del tiempo.
Acceso inmediato a los documentos independientemente del lugar geográfico
Búsqueda de documentos definiendo criterios de acceso de forma flexible y fácil
Consulta simultanea de varios lectores
Apoyo a la conservación del ambiente
Conferencias martes 25 de enero...primera conferencia.
ANÁLISIS DIGITAL FORENSE CRIMEN DIGITAL
Redes y computadoras ubicuos
Crímenes de alta tecnología:
Fraudes informáticos
Daños informáticos
Falsificación informática
Intrusión a sistemas informáticos
Violación a la integridad
Atentado contra la seguridad (C.I.A.)
INTERNET
Tecnología desestabilizadora
Medios de comunicación
Universidades
Políticos
Comercio
BRECHA DIGITAL
Infraestructura
Telecomunicaciones
PKI
Conocimiento
Técnicos
Ejecutivo
Políticos
Judiciales
Normativa
MARCO JURÍDICO
Constitución (art. 66, 19,21)
Ley de comercio electrónico, firmas digitales y mensajes de datos
Ley de transparencia y acceso a la información publica
Ley de protección de la propiedad intelectual
REGULACION EN INTERNET
Nido del cucu (1986)
Gusano de Internet (Nov. 1988)
Kevin Mitnick Shimomura
Malware
Spam
Fraudes
Pedofilia
Wikeleaks
COMPUTACION FORENSE
Aplicación de técnicas de ciencia forense a material basado en computador
Identificación
Preservación
Extracción
Documentación
Interpretación
Presentación de evidencias digitales de manera que sea aceptable en procedimientos legales.
PROCEDIMIENTOS
Investigación en la escena del crimen
Examen de evidencias digitales
Uso de tecnología en investigación
Investigación de crímenes digitales
Creación de unidades de evidencias digitales forenses
Presentación de evidencias digitales
FASES
Evaluar la situación
Adquirir los datos
Analizar los datos
EVIDENCIAS
Relevante
Confiable
Permisible legalmente
CADENAS DE CUSTODIA
Quien: testigo de esta acción
Que: descripción completa
Como: descubierta, capturado
Dónde: descubierta, analizada
Cuando: fecha
INFRACCIONES EN ECUADOR
Protección de datos
Inviolabilidad de correspondencia
Fraudes:
Banca
IESS
Factura electrónica
Comercio exterior
Migración
Energía
EXTORSIÓN DIGITAL
Llamadas electrónicas
Computación forense criolla
Rastreo de dirección IP
Incautación
Preservación
Examen
Conclusiones
PROPIEDAD INTELECTUAL
Robo de diseño 2005
Documentación digital
Pesimamente gestionados
Editados
Copiados a otros dispositivos
Fechas inconsistentes
Redes y computadoras ubicuos
Crímenes de alta tecnología:
Fraudes informáticos
Daños informáticos
Falsificación informática
Intrusión a sistemas informáticos
Violación a la integridad
Atentado contra la seguridad (C.I.A.)
INTERNET
Tecnología desestabilizadora
Medios de comunicación
Universidades
Políticos
Comercio
BRECHA DIGITAL
Infraestructura
Telecomunicaciones
PKI
Conocimiento
Técnicos
Ejecutivo
Políticos
Judiciales
Normativa
MARCO JURÍDICO
Constitución (art. 66, 19,21)
Ley de comercio electrónico, firmas digitales y mensajes de datos
Ley de transparencia y acceso a la información publica
Ley de protección de la propiedad intelectual
REGULACION EN INTERNET
Nido del cucu (1986)
Gusano de Internet (Nov. 1988)
Kevin Mitnick Shimomura
Malware
Spam
Fraudes
Pedofilia
Wikeleaks
COMPUTACION FORENSE
Aplicación de técnicas de ciencia forense a material basado en computador
Identificación
Preservación
Extracción
Documentación
Interpretación
Presentación de evidencias digitales de manera que sea aceptable en procedimientos legales.
PROCEDIMIENTOS
Investigación en la escena del crimen
Examen de evidencias digitales
Uso de tecnología en investigación
Investigación de crímenes digitales
Creación de unidades de evidencias digitales forenses
Presentación de evidencias digitales
FASES
Evaluar la situación
Adquirir los datos
Analizar los datos
EVIDENCIAS
Relevante
Confiable
Permisible legalmente
CADENAS DE CUSTODIA
Quien: testigo de esta acción
Que: descripción completa
Como: descubierta, capturado
Dónde: descubierta, analizada
Cuando: fecha
INFRACCIONES EN ECUADOR
Protección de datos
Inviolabilidad de correspondencia
Fraudes:
Banca
IESS
Factura electrónica
Comercio exterior
Migración
Energía
EXTORSIÓN DIGITAL
Llamadas electrónicas
Computación forense criolla
Rastreo de dirección IP
Incautación
Preservación
Examen
Conclusiones
PROPIEDAD INTELECTUAL
Robo de diseño 2005
Documentación digital
Pesimamente gestionados
Editados
Copiados a otros dispositivos
Fechas inconsistentes
Suscribirse a:
Entradas (Atom)