McAfee olvidó escanear su propio sitio web en busca de vulnerabilidades
McAfee ofrece, entre otros productos de seguridad, un servicio de escaneo online para sitios externos. Sin embargo, el sitio de la propia empresa presenta tres vulnerabilidades, según grupo de hackers éticos.
Diario Ti: El autodenominado YGN Ethical Hacker Group, dedicado a fomentar la seguridad informática mediante el hacking positivo o ético, ha revelado tres vulnerabilidades en un sitio propiedad de McAfee. El tema es sin duda bochornoso para McAfee, debido a que habría descuidado la seguridad de su propio sitio, a la vez que ofrece validar la seguridad de sitios externos.
YGN Ethical Hacker Group dice haber informado a McAfee sobre las vulnerabilidades el día 10 de febrero. La supuesta pasividad de McAfee frente al tema llevó al grupo de hackers a revelar la información. La descripción completa está disponible en ésta página.
Según se indica, el sitio download.mcafee.com, propiedad de McAfee sería vulnerable a ataques de tipo cross site scripting, que pueden ser explotados para dirigir a los usuarios a un sitio falso desde donde potencialmente podrían descargar malware en lugar de software de seguridad.
Las vulnerabilidades también permiten acceso a código fuente e información interna de la empresa. En un comunicado, McAfee asegura que las vulnerabilidades bajo ninguna circunstancia han comprometido la seguridad ni datos de sus clientes. La empresa informa además que los agujeros serán parcheados dentro de las próximas horas.
Cabe señalar que las tres vulnerabilidades permanecieron en un nivel de daño potencial; es decir, no fueron activamente explotadas por sus creadores para sabotear las actividades o el sitio de McAfee.
Con todo, el tema podría perjudicar la imagen de McAfee. Los clientes de la empresa pueden solicitar un sello de calidad, con el logotipo de McAfee, que confirma que el sitio ha sido escaneado frente a "decenas de miles de vulnerabilidades", controlando que cumple con los altos estándares de seguridad de McAfee. El logotipo de "McAfee Secure" implica, en otras palabras, que los sitios externos han sido escaneados y declarados limpios de las mismas vulnerabilidades detectadas en el sitio download.mcafee.com.
En 2009, McAfee experimentó un problema similar en su sitio y en 2005 un problema de seguridad en su software antivirus.
via: Diario Ti
martes, 29 de marzo de 2011
viernes, 25 de marzo de 2011
Google no compartirá, hasta nuevo aviso, el código de Android 3.0
Honeycomb, el sistema operativo de Google para tabletas, no estará disponible para todos los interesados, al menos hasta nuevo aviso - que podría coincidir con el lanzamiento de la futura versión "Ice Cream" de Android.
Este esquema facilita a los fabricantes de unidades basadas en Android la adaptación del sistema operativo a sus productos específicos.
Sin embargo, para el caso de Android 3.0 Google ha decidido cambiar el procedimiento. Android 3.0 es la primera versión del software adaptada para su uso en tabletas.
Según BusinessWeek Google ha ofrecido el código fuente de Honeycomb solo a un grupo selecto de clientes, como Motorola, Samsung, Asus y HTC, en tanto que los actores menores deberán esperar. La causa sería aprensiones en Google, en el sentido que estos actores podrían implementar el software de manera inadecuada.
El director de la plataforma Android en Google, Andy Rubin, explicó a Business Week que la empresa debió realizar algunas consideraciones en torno al diseño de Honeycomb, con el fin de cumplir con el calendario de desarrollo para tabletas.
En tal sentido, explicó que prefirieron concentrarse en las necesidades que planteaban las tabletas, en lugar de favorecer la ejecución del software en teléfonos móviles ya que "esto habría requerido recursos extraordinarios y extendido el calendario más allá de lo razonable".
Agregó que si Google ofreciera el código de Honeycomb ahora mismo, la compañía no podría impedir que desarrolladores lo instalen en teléfonos móviles, creando experiencias deficientes para el usuario.
La conclusión de Rubin lo explica todo: "Ni siquiera sabemos si Honeycomb funcionaría en teléfonos móviles". Agregó que el equipo de desarrollo trabaja intensamente para que el sistema funcione en otras unidades de hardware.
Fuentes contactadas por Business Week señalaron que el código fuente de la versión Honeycomb de Android será publicado tan pronto concluya el desarrollo de la próxima versión de Android, conocida con el nombre de trabajo "Ice Cream".
Rubin precisó que Honeycomb continúa siendo un proyecto de código abierto y que la compañía no ha cambiado su estrategia al respecto.
Google no ha tenido un ritmo periódico de lanzamiento de las versiones de Android. Honeycomb fue lanzado en febrero pasado.
via Diario Ti
Este esquema facilita a los fabricantes de unidades basadas en Android la adaptación del sistema operativo a sus productos específicos.
Sin embargo, para el caso de Android 3.0 Google ha decidido cambiar el procedimiento. Android 3.0 es la primera versión del software adaptada para su uso en tabletas.
Según BusinessWeek Google ha ofrecido el código fuente de Honeycomb solo a un grupo selecto de clientes, como Motorola, Samsung, Asus y HTC, en tanto que los actores menores deberán esperar. La causa sería aprensiones en Google, en el sentido que estos actores podrían implementar el software de manera inadecuada.
El director de la plataforma Android en Google, Andy Rubin, explicó a Business Week que la empresa debió realizar algunas consideraciones en torno al diseño de Honeycomb, con el fin de cumplir con el calendario de desarrollo para tabletas.
En tal sentido, explicó que prefirieron concentrarse en las necesidades que planteaban las tabletas, en lugar de favorecer la ejecución del software en teléfonos móviles ya que "esto habría requerido recursos extraordinarios y extendido el calendario más allá de lo razonable".
Agregó que si Google ofreciera el código de Honeycomb ahora mismo, la compañía no podría impedir que desarrolladores lo instalen en teléfonos móviles, creando experiencias deficientes para el usuario.
La conclusión de Rubin lo explica todo: "Ni siquiera sabemos si Honeycomb funcionaría en teléfonos móviles". Agregó que el equipo de desarrollo trabaja intensamente para que el sistema funcione en otras unidades de hardware.
Fuentes contactadas por Business Week señalaron que el código fuente de la versión Honeycomb de Android será publicado tan pronto concluya el desarrollo de la próxima versión de Android, conocida con el nombre de trabajo "Ice Cream".
Rubin precisó que Honeycomb continúa siendo un proyecto de código abierto y que la compañía no ha cambiado su estrategia al respecto.
Google no ha tenido un ritmo periódico de lanzamiento de las versiones de Android. Honeycomb fue lanzado en febrero pasado.
via Diario Ti
martes, 22 de marzo de 2011
Arquitectura de un Sistema Experto
Arquitectura de un Sistema Experto
Un sistema experto tiene la siguiente arquitectura:
Base de Conocimientos (Knowledgebase): representa el conocimiento del experto y el problema en forma de hechos descriptivos y reglas de inferencia lógica. Una forma clásica de representar el conocimiento en un sistema experto son las reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos: Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia: Se lo podría denominar como el corazón de todo sistema experto ya que saca conclusiones aplicando el conocimiento a los datos.Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de Usuario (User Interface): recibe y entrega información interactuando con el usuario, es decir, el usuario puede: 1) alimentar hechos, 2) proporcionar objetivos, 3) nuevas restricciones y reglas, 4) escribir programas que deban adicionarse al sistema, 5) solicitar resultados y reportes, y 6) cuestionar cómo se obtuvieron ciertas conclusiones. Dada la posible complejidad que puede existir entre el sistema y el usuario, se pueden tener distintos tipos de especialistas como usuarios, tales como: 1) el experto, 2) el ingeniero de conocimiento, 3) el programador, 4) el administrador del sistema, y 5) los usuarios finales.
fuentes:
http://www.depi.itch.edu.mx/apacheco/ai/definic.htm
http://www.wikilearning.com/monografia/sistemas_expertos_se-arquitectura_basica_de_los_se/12149-5
http://www.monografias.com/trabajos16/sistemas-expertos/sistemas-expertos.shtml
Un sistema experto tiene la siguiente arquitectura:
Base de Conocimientos (Knowledgebase): representa el conocimiento del experto y el problema en forma de hechos descriptivos y reglas de inferencia lógica. Una forma clásica de representar el conocimiento en un sistema experto son las reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos: Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia: Se lo podría denominar como el corazón de todo sistema experto ya que saca conclusiones aplicando el conocimiento a los datos.Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de Usuario (User Interface): recibe y entrega información interactuando con el usuario, es decir, el usuario puede: 1) alimentar hechos, 2) proporcionar objetivos, 3) nuevas restricciones y reglas, 4) escribir programas que deban adicionarse al sistema, 5) solicitar resultados y reportes, y 6) cuestionar cómo se obtuvieron ciertas conclusiones. Dada la posible complejidad que puede existir entre el sistema y el usuario, se pueden tener distintos tipos de especialistas como usuarios, tales como: 1) el experto, 2) el ingeniero de conocimiento, 3) el programador, 4) el administrador del sistema, y 5) los usuarios finales.
fuentes:
http://www.depi.itch.edu.mx/apacheco/ai/definic.htm
http://www.wikilearning.com/monografia/sistemas_expertos_se-arquitectura_basica_de_los_se/12149-5
http://www.monografias.com/trabajos16/sistemas-expertos/sistemas-expertos.shtml
Facebook expulsa diariamente a 20.000 usuarios
El responsable de privacidad en Facebook, Mozelle Thompson, declaró que la red social cierra a diario las cuentas de 20.000 usuarios por incumplimiento de la regla de edad mínima. "Son gente que miente, y que son menores de 13 años", explica Thompson.
Diario Ti: El diario australiano The Daily Telegraph escribe que Thompson fue citada por el comité gubernamental de seguridad en la red para explicar los procedimientos que sigue Facebook para hacer cumplir la normativa que requiere un mínimo de 13 años de edad para sumarse a la red social.
Aunque Thompson no explicó en detalle el funcionamiento del servicio de supervisión que impide a menores de 13 años apuntarse a Facebook, admitió que el sistema "no es perfecto".
Agregó que un número cada vez mayor de usuarios asegura tener 13 años cumplidos al abrir una cuenta en Facebook, pero que posteriormente se delatan a sí mismos revelando su edad verdadera. Thompson se refiere a tales usuarios como "mentirosos", lo que explica el cierre inmediato de sus cuentas. Diariamente, Facebook expulsa un promedio de 20.000 usuarios.
Thompson se negó a comentar ante The Daily Telegraph los procedimientos de monitorización y control que le permiten revelar la edad verdadera de los usuarios. La publicación indica que probablemente hay un gran número de usuarios de 11-12 años de edad, o incluso menores, que se suman a Facebook con o sin el consentimiento de sus padres.
El tema preocupa a las autoridades debido a la posibilidad que pedófilos contacten a los menores por intermedio de la popular red Facebook.
Fuente: The Daily Telegraph (Australia)
Imagen: Mark Zuckerberg, CEO de Facebook
via Diario Ti
Diario Ti: El diario australiano The Daily Telegraph escribe que Thompson fue citada por el comité gubernamental de seguridad en la red para explicar los procedimientos que sigue Facebook para hacer cumplir la normativa que requiere un mínimo de 13 años de edad para sumarse a la red social.
Aunque Thompson no explicó en detalle el funcionamiento del servicio de supervisión que impide a menores de 13 años apuntarse a Facebook, admitió que el sistema "no es perfecto".
Agregó que un número cada vez mayor de usuarios asegura tener 13 años cumplidos al abrir una cuenta en Facebook, pero que posteriormente se delatan a sí mismos revelando su edad verdadera. Thompson se refiere a tales usuarios como "mentirosos", lo que explica el cierre inmediato de sus cuentas. Diariamente, Facebook expulsa un promedio de 20.000 usuarios.
Thompson se negó a comentar ante The Daily Telegraph los procedimientos de monitorización y control que le permiten revelar la edad verdadera de los usuarios. La publicación indica que probablemente hay un gran número de usuarios de 11-12 años de edad, o incluso menores, que se suman a Facebook con o sin el consentimiento de sus padres.
El tema preocupa a las autoridades debido a la posibilidad que pedófilos contacten a los menores por intermedio de la popular red Facebook.
Fuente: The Daily Telegraph (Australia)
Imagen: Mark Zuckerberg, CEO de Facebook
via Diario Ti
sábado, 19 de marzo de 2011
El ciclo de vida de los sistemas expertos
El ciclo de vida consiste de seis fases. Este ciclo no es fijo. Como los expertos con frecuencia tienen problemas para explicar sus soluciones, los problemas tienen que fraccionarse en subproblemas antes que las soluciones puedan quedar definidas (Weitzel y Kerschberg, 1989). Cada fase puede necesitar de varias iteraciones antes de que un sistema completo pueda ser desarrollado. Ahora describiremos estas fases.
La fase 1 consiste en encontrar un problema apropiado para un sistema experto, localizar un experto para contribuir en el conocimiento maestro, establecer un enfoque preliminar, analizar los costos y beneficios y finalmente preparar un plan de desarrollo. La mayor parte de los sistemas expertos se enfocan en una especialidad estrecha. Es importante evitar los problemas que pueden surgir de lo que se indica:
• La comprensión del idioma (inglés).
• Modelos geométricos o espaciales complicados.
• Modelos complejos de tipo causal o temporal.
• La comprensión de las intenciones de las personas.
• Sentido común o conocimiento de antecedentes.
El punto importante al principio de la etapa de diseño es evitar problemas complejos que están más allá del conocimiento maestro de los diseñadores. En general, encontrar un problema adecuado pondrá al ingeniero de conocimiento en contacto con expertos en toda la empresa a quienes les gustaría desarrollar sistemas basados en sus conocimientos.
La fase 2 consiste del desarrollo de un prototipo de sistema. El prototipo del sistema es una versión en pequeño del sistema experto diseñado para probar supuestos sobre cómo codificar los hechos, las relaciones y el conocimiento más profundo del campo del conocimiento maestro. Entre otras tareas de esta fase, se incluyen.
• Aprender sobre el dominio y la tarea.
• Especificar los criterios de desempeño.
• Seleccionar una herramienta para construir un sistema experto.
• Desarrollar un plan de implantación.
• Desarrollar un diseño detallado para un sistema completo.
La fase 3 es el desarrollo de un sistema completo. El desarrollo de un sistema a escala es probablemente la etapa más compleja del esfuerzo. La estructura central de todo el sistema debe ser determinada; esta es la base de conocimientos debe extenderse a la base de conocimientos totales de manera congruente con el mundo real, y debe desarrollarse la interface con el usuario.
El trabajo principal en esta fase es la suma de un gran número de reglas. La complejidad de todo el sistema crece con el número de reglas y se ve amenazada la integridad del sistema. Se desarrolla un conflicto fundamental en este período entre la fidelidad a la complejidad del mundo real y la comprensibilidad del sistema.
La fase 4 es la evaluación. Cuando el experto y el ingeniero de conocimiento quedan satisfechos de que el sistema está completo, puede ser probado ya contra los criterios de desempeño establecidos en etapas anteriores. Es también tiempo de de mostrar el sistema a al institución e invitar a otros expertos a probarlo y presentar nuevos casos.
La fase 5 es la integración del sistema. Una vez construido, el sistema experto debe ser integrado al flujo de los datos y patrones de trabajo de la institución. Normalmente se deben desarrollar nuevos procedimientos, junto con nuevas formas, nuevas subunidades en la organización y nuevos procedimientos de entrenamiento.
La fase 6 es el mantenimiento del sistema. Como cualquier sistema, el ambiente en el que el sistema experto opera está en cambios continuos. Esto significa que el sistema experto debe también cambiar de manera continua. Se sabe muy poco sobre los costos de mantenimiento a largo plazo de los sistemas expertos, y aun se ha publicado menos. Algunos sistemas expertos, en especial los grandes, son tan complejos que en algunos años los costos de mantenimiento habrán igualado los costos de desarrollo. En el caso de XCON, cerca del 30 o 50 por ciento de las reglas se cambian cada año.
Ciclo de vida de un Sistema Tradicional
El ciclo de vida es un proceso de varias etapas que comienza con la necesidad de un usuario o cliente, produce un software que satisface esa necesidad y termina con el desecho de la aplicación. El proceso se lleva a cabo mediante varias etapas. Usualmente estas etapas son:
• Planificación
• Análisis
• Diseño
• Implementación
• Prueba
• Instalación
• Mantenimiento
DIFERENCIA CON LOS SISTEMAS EXPERTOS Y TRADICIONALES.
Sistema clásico
• Comprender el problema, la incertidumbre en la estimación es inevitable
• Plantear una posible solución, considerando soluciones alternativas
• Llevar a cabo la solución planteada
Sistema experto
• Evalúa el problema y los recursos disponibles
• La experiencia demuestra que sin tener especificaciones no es posible diseñar un SE de real utilidad.
• Determina la herramienta escogida para construir el prototipo, y la selección de los expertos.
• La implementación comprende el proceso completo de adquisición del conocimiento para todos los módulos o subsistemas.
http://wwwisis.ufg.edu.sv/wwwisis/documentos/TE/370-Z12d/370-Z12d-Capitulo%20II.pdf
http://www.depi.itch.edu.mx/apacheco/ai/ventdesv.htm
La fase 1 consiste en encontrar un problema apropiado para un sistema experto, localizar un experto para contribuir en el conocimiento maestro, establecer un enfoque preliminar, analizar los costos y beneficios y finalmente preparar un plan de desarrollo. La mayor parte de los sistemas expertos se enfocan en una especialidad estrecha. Es importante evitar los problemas que pueden surgir de lo que se indica:
• La comprensión del idioma (inglés).
• Modelos geométricos o espaciales complicados.
• Modelos complejos de tipo causal o temporal.
• La comprensión de las intenciones de las personas.
• Sentido común o conocimiento de antecedentes.
El punto importante al principio de la etapa de diseño es evitar problemas complejos que están más allá del conocimiento maestro de los diseñadores. En general, encontrar un problema adecuado pondrá al ingeniero de conocimiento en contacto con expertos en toda la empresa a quienes les gustaría desarrollar sistemas basados en sus conocimientos.
La fase 2 consiste del desarrollo de un prototipo de sistema. El prototipo del sistema es una versión en pequeño del sistema experto diseñado para probar supuestos sobre cómo codificar los hechos, las relaciones y el conocimiento más profundo del campo del conocimiento maestro. Entre otras tareas de esta fase, se incluyen.
• Aprender sobre el dominio y la tarea.
• Especificar los criterios de desempeño.
• Seleccionar una herramienta para construir un sistema experto.
• Desarrollar un plan de implantación.
• Desarrollar un diseño detallado para un sistema completo.
La fase 3 es el desarrollo de un sistema completo. El desarrollo de un sistema a escala es probablemente la etapa más compleja del esfuerzo. La estructura central de todo el sistema debe ser determinada; esta es la base de conocimientos debe extenderse a la base de conocimientos totales de manera congruente con el mundo real, y debe desarrollarse la interface con el usuario.
El trabajo principal en esta fase es la suma de un gran número de reglas. La complejidad de todo el sistema crece con el número de reglas y se ve amenazada la integridad del sistema. Se desarrolla un conflicto fundamental en este período entre la fidelidad a la complejidad del mundo real y la comprensibilidad del sistema.
La fase 4 es la evaluación. Cuando el experto y el ingeniero de conocimiento quedan satisfechos de que el sistema está completo, puede ser probado ya contra los criterios de desempeño establecidos en etapas anteriores. Es también tiempo de de mostrar el sistema a al institución e invitar a otros expertos a probarlo y presentar nuevos casos.
La fase 5 es la integración del sistema. Una vez construido, el sistema experto debe ser integrado al flujo de los datos y patrones de trabajo de la institución. Normalmente se deben desarrollar nuevos procedimientos, junto con nuevas formas, nuevas subunidades en la organización y nuevos procedimientos de entrenamiento.
La fase 6 es el mantenimiento del sistema. Como cualquier sistema, el ambiente en el que el sistema experto opera está en cambios continuos. Esto significa que el sistema experto debe también cambiar de manera continua. Se sabe muy poco sobre los costos de mantenimiento a largo plazo de los sistemas expertos, y aun se ha publicado menos. Algunos sistemas expertos, en especial los grandes, son tan complejos que en algunos años los costos de mantenimiento habrán igualado los costos de desarrollo. En el caso de XCON, cerca del 30 o 50 por ciento de las reglas se cambian cada año.
Ciclo de vida de un Sistema Tradicional
El ciclo de vida es un proceso de varias etapas que comienza con la necesidad de un usuario o cliente, produce un software que satisface esa necesidad y termina con el desecho de la aplicación. El proceso se lleva a cabo mediante varias etapas. Usualmente estas etapas son:
• Planificación
• Análisis
• Diseño
• Implementación
• Prueba
• Instalación
• Mantenimiento
DIFERENCIA CON LOS SISTEMAS EXPERTOS Y TRADICIONALES.
Sistema clásico
• Comprender el problema, la incertidumbre en la estimación es inevitable
• Plantear una posible solución, considerando soluciones alternativas
• Llevar a cabo la solución planteada
Sistema experto
• Evalúa el problema y los recursos disponibles
• La experiencia demuestra que sin tener especificaciones no es posible diseñar un SE de real utilidad.
• Determina la herramienta escogida para construir el prototipo, y la selección de los expertos.
• La implementación comprende el proceso completo de adquisición del conocimiento para todos los módulos o subsistemas.
http://wwwisis.ufg.edu.sv/wwwisis/documentos/TE/370-Z12d/370-Z12d-Capitulo%20II.pdf
http://www.depi.itch.edu.mx/apacheco/ai/ventdesv.htm
SISTEMAS EXPERTOS PIONEROS
SISTEMAS EXPERTOS PIONEROS
Después del descubrimiento de I.A., se quería que los ordenadores sean capaces de ayudar al hombre, por ello surgen los primeros sistemas expertos, después de muchos intentos fallidos se logró construir los primeros sistemas expertos los cuales eran bastante complicados estos fueron: DENDRAL, MYCIN, XCON, etc.
En1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.
En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales.
En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC).
El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.
Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos
En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.
En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.
A partir de los 90 y con el desarrollo de la informatica, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad.
Jackson, P. Introduction to Expert Systems Addison-Wesley, 1990.
www.monografias.com
Monografía creado por Jesús Montes Castro.
Después del descubrimiento de I.A., se quería que los ordenadores sean capaces de ayudar al hombre, por ello surgen los primeros sistemas expertos, después de muchos intentos fallidos se logró construir los primeros sistemas expertos los cuales eran bastante complicados estos fueron: DENDRAL, MYCIN, XCON, etc.
En1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego “árbol”.Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.
La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.
En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.
En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales.
En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC).
El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.
En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.
En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.
Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos
En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en Disco” para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.
Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las “máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas de desarrollo de sistemas expertos”.
En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA..También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje “C” lo que acabó con el LISP.
A partir de los 90 y con el desarrollo de la informatica, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad.
Jackson, P. Introduction to Expert Systems Addison-Wesley, 1990.
www.monografias.com
Monografía creado por Jesús Montes Castro.
Empresa de TI ayudará a la CIA a predecir el futuro
Entre los muchos usos que puede darse a Internet ha surgido uno nuevo: predecir el futuro.
Diario Ti: Empresa sueco-estadounidense ha desarrollado una tecnología que permite predecir el futuro. El sistema analiza cientos de miles de sitios web, bases de datos, blogs, tweets, etc., buscando conexiones entre los textos con el fin de determinar cuando podrían ocurrir los hechos descritos.
"El sistema puede analizar los textos con un grado tal de exactitud que podemos saber cuando algo ocurrirá", asegura Steffan Truve, director científico de Recorded Future, al diario sueco Aftonbladet.
El proyecto habría interesado a la CIA y a Google, que incluso habrían invertido en la tecnología esbozada por Truve. Desde hace tiempo, la CIA se interesa por empresas que tengan la capacidad de desarrollar tecnologías que puedan facilitar su labor de inteligencia.
Los creadores de la tecnología admiten ante Aftonbladet que la predicción de catástrofes naturales como las que estos días afectan a Japón son difíciles de pronosticar. Explican que su tecnología podría pronosticar, por ejemplo, la cotización bursátil de una aerolínea después de anunciar nuevas rutas.
En concreto, la tecnología analiza distintos caudales informativos, estableciendo posibles conexiones lógicas y contextuales, evaluando además la calidad de las fuentes.
Si, por ejemplo, un blogger escribe que una empresa cerrará dos de sus divisiones en diez meses, el sistema no asigna necesariamente la mayor credibilidad a la información. Si embargo, si el sistema detecta que la información es referida por otros boletines o bases de datos, intenta determinar las probabilidades de que los hechos anunciados ocurran en el plazo indicado.
"Nuestras estadísticas indican que, por ejemplo, al monitorizar blogs financieros con herramientas estadísticas es posible pronosticar el desarrollo que tendrá la cotización bursátil de distintas empresas", comentó Truve a Aftonbladet.
Fuente: Aftonbladet
Diario Ti: Empresa sueco-estadounidense ha desarrollado una tecnología que permite predecir el futuro. El sistema analiza cientos de miles de sitios web, bases de datos, blogs, tweets, etc., buscando conexiones entre los textos con el fin de determinar cuando podrían ocurrir los hechos descritos.
"El sistema puede analizar los textos con un grado tal de exactitud que podemos saber cuando algo ocurrirá", asegura Steffan Truve, director científico de Recorded Future, al diario sueco Aftonbladet.
El proyecto habría interesado a la CIA y a Google, que incluso habrían invertido en la tecnología esbozada por Truve. Desde hace tiempo, la CIA se interesa por empresas que tengan la capacidad de desarrollar tecnologías que puedan facilitar su labor de inteligencia.
Los creadores de la tecnología admiten ante Aftonbladet que la predicción de catástrofes naturales como las que estos días afectan a Japón son difíciles de pronosticar. Explican que su tecnología podría pronosticar, por ejemplo, la cotización bursátil de una aerolínea después de anunciar nuevas rutas.
En concreto, la tecnología analiza distintos caudales informativos, estableciendo posibles conexiones lógicas y contextuales, evaluando además la calidad de las fuentes.
Si, por ejemplo, un blogger escribe que una empresa cerrará dos de sus divisiones en diez meses, el sistema no asigna necesariamente la mayor credibilidad a la información. Si embargo, si el sistema detecta que la información es referida por otros boletines o bases de datos, intenta determinar las probabilidades de que los hechos anunciados ocurran en el plazo indicado.
"Nuestras estadísticas indican que, por ejemplo, al monitorizar blogs financieros con herramientas estadísticas es posible pronosticar el desarrollo que tendrá la cotización bursátil de distintas empresas", comentó Truve a Aftonbladet.
Fuente: Aftonbladet
martes, 15 de marzo de 2011
ESQUEMA DE SEGURIDAD DEL SISTEMA TRANSACCIONAL DE CASH
MANAGEMENT DEL BANCO DEL PICHINCHA
Tecnológica
Plataforma Segura
La plataforma transaccional del Sistema De Cash Management usa la seguridad del sistema operativo, Windows 2000 para autentificación de usuarios, roles y atribuciones de estos en el sistema.
Se usa la más avanzada tecnología de servidores que aseguran la disponibilidad del
sistema en un 99%, esto incluye servidores principales y de respaldo, hardware que evita el ingreso de intrusos (firewall), infraestructura de comunicaciones redundante es decir, con respaldos de los canales de comunicación en caso de fallas.
Autentificación
El sistema usa la seguridad del sistema operativo, es decir el sistema de seguridad de Windows 2000, todas las autentificaciones del sistema para el ingreso y atribuciones de los usuarios en el sistema transaccional deben estar previamente definidas en el Sistema Operativo los cuales son administrados por un ente de seguridad propio del
Banco del Pichincha siguiendo procedimientos previamente definidos, validados y aprobados.
Perfil De Usuarios
Los perfiles de usuarios están definidos en el sistema operativo, usando grupos de acceso al sistema y definiendo para cada grupo los derechos y atribuciones sobre el sistema transaccional, por ejemplo existen usuarios que solamente pueden ingresar los datos, otros que solamente puedan aprobar transacciones y otros que tengan todas las atribuciones, etc. Los grupos son creados de acuerdo a las necesidades de las empresas.
Encriptación De Datos
Se usa certificados digitales reconocidos por entidades certificadoras a nivel internacional los que permite encriptar los datos a 128 bits el cual es el estándar mas alto de seguridad en la actualidad para el Internet.
Seguridad de WINDOWS 2000.- Definición de usuarios y los recursos asignados, directorios, base de datos, componentes, roles. En el IIE registrar al usuario como autorizado a usar los recursos asignados. Si no está definido el usuario no puede conectarse.
Aplicativa
Aplicativo de definición de perfil de usuario, empresa, usuario, aplicativos, opciones, niveles de aprobación.
Registro de auditoría, logs de auditoría que permiten llevar control de las transacciones realizadas por los usuarios., registro de los eventos relevantes.
Sistema biométrico de ingreso del Banco Pichincha
MANAGEMENT DEL BANCO DEL PICHINCHA
Tecnológica
Plataforma Segura
La plataforma transaccional del Sistema De Cash Management usa la seguridad del sistema operativo, Windows 2000 para autentificación de usuarios, roles y atribuciones de estos en el sistema.
Se usa la más avanzada tecnología de servidores que aseguran la disponibilidad del
sistema en un 99%, esto incluye servidores principales y de respaldo, hardware que evita el ingreso de intrusos (firewall), infraestructura de comunicaciones redundante es decir, con respaldos de los canales de comunicación en caso de fallas.
Autentificación
El sistema usa la seguridad del sistema operativo, es decir el sistema de seguridad de Windows 2000, todas las autentificaciones del sistema para el ingreso y atribuciones de los usuarios en el sistema transaccional deben estar previamente definidas en el Sistema Operativo los cuales son administrados por un ente de seguridad propio del
Banco del Pichincha siguiendo procedimientos previamente definidos, validados y aprobados.
Perfil De Usuarios
Los perfiles de usuarios están definidos en el sistema operativo, usando grupos de acceso al sistema y definiendo para cada grupo los derechos y atribuciones sobre el sistema transaccional, por ejemplo existen usuarios que solamente pueden ingresar los datos, otros que solamente puedan aprobar transacciones y otros que tengan todas las atribuciones, etc. Los grupos son creados de acuerdo a las necesidades de las empresas.
Encriptación De Datos
Se usa certificados digitales reconocidos por entidades certificadoras a nivel internacional los que permite encriptar los datos a 128 bits el cual es el estándar mas alto de seguridad en la actualidad para el Internet.
Seguridad de WINDOWS 2000.- Definición de usuarios y los recursos asignados, directorios, base de datos, componentes, roles. En el IIE registrar al usuario como autorizado a usar los recursos asignados. Si no está definido el usuario no puede conectarse.
Aplicativa
Aplicativo de definición de perfil de usuario, empresa, usuario, aplicativos, opciones, niveles de aprobación.
Registro de auditoría, logs de auditoría que permiten llevar control de las transacciones realizadas por los usuarios., registro de los eventos relevantes.
Sistema biométrico de ingreso del Banco Pichincha
Deep Blue
Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996 en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996
Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.
Su nombre se podría traducir al español como "Azul Oscuro", "Azul Profundo" o "Mar Profundo".
El nombre de esta computadora es un juego de palabras en el idioma original, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
A la poderosa supercomputadora de IBM que sabe jugar ajedrez, la Deep Blue, se le ha integrado un poder mas: el toque humano, para su próximo enfrentamiento con el campeón mundial de ajedrez, el ruso Gary Kasparov, en una de las revanchas más esperadas.
La computadora le gano un juego a Kasparov y empato otros dos, cuando se enfrentaron en Filadelfia en 1996. El maestro, considerado por muchos expertos como el mejor jugador de ajedrez de todos los tiempos, gano eventualmente la partida de seis juegos, pero el enfrentamiento lo dejo muy impresionado porque tuvo la sensación de que los dias de la superioridad del hombre sobre las maquinas estaban contados.
Si Deep Blue gana la revancha, programada para el 3-11 de mayo, que tiene una bolsa de un millón 100.000 dólares, los científicos de IBM, quienes han estado trabajando durante años en este proyecto, habrán dado un paso sin precedentes para la humanidad.
"El toque humano es la asesoría que tuvimos todo el tiempo del maestro de maestros en ajedrez, Joel Benjamin".Benjamin, quien trabajo con el equipo de científicos de la IBM un tiempo breve antes de la partida de 1996, ha estado con ellos todo el tiempo en esta ocasión y le ha integrado a la maquina su sabiduría y su experiencia en este juego, con la ayuda de los eruditos en computación.
Además, a Deep Blue se le aumento la memoria, se le doblo la velocidad para realizar cálculos y al procesador paralelo IBM RS/6000 se le instalaron microchips especializados para el ajedrez. Con esto, la maquina esta lista y en espera de Kasparov, quien ha tenido el cetro de campeón del mundo durante los últimos 12 anos.
Weka
Weka es un conjunto de librerías JAVA para la extracción de conocimientos desde bases de datos. Es un software ha sido desarrollado en la universidad de Waikato (Nueva Zelanda) bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
WEKA es una herramienta de aprendizaje automático y data mining, escrita en lenguaje Java, desarrollada en la Universidad de Waikato de Nueva Zelanda, distribuida de forma gratuita y publicada bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
Los puntos fuertes de Weka son:
• Está disponible libremente bajo la licencia pública general de GNU.
• Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
• Contiene una extensa colección de técnicas para preprocesamiento de datos y modelado.
• Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.
Weka soporta varias tareas estándar de minería de datos, especialmente, reprocesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka
http://www.locualo.net/programacion/introduccion-mineria-datos-weka/00000018.aspx
Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996 en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996
Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.
Su nombre se podría traducir al español como "Azul Oscuro", "Azul Profundo" o "Mar Profundo".
El nombre de esta computadora es un juego de palabras en el idioma original, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
A la poderosa supercomputadora de IBM que sabe jugar ajedrez, la Deep Blue, se le ha integrado un poder mas: el toque humano, para su próximo enfrentamiento con el campeón mundial de ajedrez, el ruso Gary Kasparov, en una de las revanchas más esperadas.
La computadora le gano un juego a Kasparov y empato otros dos, cuando se enfrentaron en Filadelfia en 1996. El maestro, considerado por muchos expertos como el mejor jugador de ajedrez de todos los tiempos, gano eventualmente la partida de seis juegos, pero el enfrentamiento lo dejo muy impresionado porque tuvo la sensación de que los dias de la superioridad del hombre sobre las maquinas estaban contados.
Si Deep Blue gana la revancha, programada para el 3-11 de mayo, que tiene una bolsa de un millón 100.000 dólares, los científicos de IBM, quienes han estado trabajando durante años en este proyecto, habrán dado un paso sin precedentes para la humanidad.
"El toque humano es la asesoría que tuvimos todo el tiempo del maestro de maestros en ajedrez, Joel Benjamin".Benjamin, quien trabajo con el equipo de científicos de la IBM un tiempo breve antes de la partida de 1996, ha estado con ellos todo el tiempo en esta ocasión y le ha integrado a la maquina su sabiduría y su experiencia en este juego, con la ayuda de los eruditos en computación.
Además, a Deep Blue se le aumento la memoria, se le doblo la velocidad para realizar cálculos y al procesador paralelo IBM RS/6000 se le instalaron microchips especializados para el ajedrez. Con esto, la maquina esta lista y en espera de Kasparov, quien ha tenido el cetro de campeón del mundo durante los últimos 12 anos.
Weka
Weka es un conjunto de librerías JAVA para la extracción de conocimientos desde bases de datos. Es un software ha sido desarrollado en la universidad de Waikato (Nueva Zelanda) bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
WEKA es una herramienta de aprendizaje automático y data mining, escrita en lenguaje Java, desarrollada en la Universidad de Waikato de Nueva Zelanda, distribuida de forma gratuita y publicada bajo licencia GPL lo cual ha impulsado que sea una de las suites más utilizadas en el área en los últimos años.
Los puntos fuertes de Weka son:
• Está disponible libremente bajo la licencia pública general de GNU.
• Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
• Contiene una extensa colección de técnicas para preprocesamiento de datos y modelado.
• Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.
Weka soporta varias tareas estándar de minería de datos, especialmente, reprocesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka
http://www.locualo.net/programacion/introduccion-mineria-datos-weka/00000018.aspx
Kaspersky predice la evolución del cibercrimen
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro.
Diario Ti: Kaspersky Lab ha elaborado sus previsiones sobre cómo evolucionará el cibercrimen entre 2011 y 2020. El análisis de los principales cambios en la seguridad de la última década y las tendencias emergentes en el desarrollo de ordenadores personales, teléfonos móviles y sistemas operativos son las bases del informe.
El incremento de nuevos sistemas operativos afectará al proceso de creación de amenazas. Los ciberdelincuentes se centrarán en múltiples sistemas operativos y dispondrán de muchos dispositivos bajo control o se especializarán en ataques a empresas con plataformas basadas en Windows. La segunda opción, con toda probabilidad, será la que más interés suscite.
Dos tipos de ciberdelincuencia
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro. Hackers y CSOs se enfrentarán los unos a los otros en un campo de batalla virtual. Los organismos estatales de lucha contra la ciberdelincuencia se verán, igualmente, involucrados en el proceso y tendrán que tratar sobre todo cuestiones relacionadas con la plataforma Windows, además de las últimas versiones de los tradicionales sistemas.
El segundo grupo de ciberdelincuentes centrará sus actividades en aquellos ámbitos que afectan a nuestra cotidianeidad, como el sistema de transporte y otros servicios. Hackear y robar estos sistemas, haciendo uso libre de ellos, o el intercambio de datos personales de los usuarios serán el principal foco de atención de la nueva generación de hackers, que harán de estas actividades su medio de vida.
La evolución de Internet a convertirse en un popular medio de comunicación, entretenimiento y noticias, continuará en ascenso. La base de usuarios online se incrementará al incluir muchos dispositivos móviles inteligentes, capaces de usar la red para intercambiar o transferir información sin necesidad de intervención humana.
via : Diario Ti
Diario Ti: Kaspersky Lab ha elaborado sus previsiones sobre cómo evolucionará el cibercrimen entre 2011 y 2020. El análisis de los principales cambios en la seguridad de la última década y las tendencias emergentes en el desarrollo de ordenadores personales, teléfonos móviles y sistemas operativos son las bases del informe.
El incremento de nuevos sistemas operativos afectará al proceso de creación de amenazas. Los ciberdelincuentes se centrarán en múltiples sistemas operativos y dispondrán de muchos dispositivos bajo control o se especializarán en ataques a empresas con plataformas basadas en Windows. La segunda opción, con toda probabilidad, será la que más interés suscite.
Dos tipos de ciberdelincuencia
El espionaje comercial, el robo de bases de datos y los ataques a la reputación de las empresas tendrán una gran demanda en el mercado negro. Hackers y CSOs se enfrentarán los unos a los otros en un campo de batalla virtual. Los organismos estatales de lucha contra la ciberdelincuencia se verán, igualmente, involucrados en el proceso y tendrán que tratar sobre todo cuestiones relacionadas con la plataforma Windows, además de las últimas versiones de los tradicionales sistemas.
El segundo grupo de ciberdelincuentes centrará sus actividades en aquellos ámbitos que afectan a nuestra cotidianeidad, como el sistema de transporte y otros servicios. Hackear y robar estos sistemas, haciendo uso libre de ellos, o el intercambio de datos personales de los usuarios serán el principal foco de atención de la nueva generación de hackers, que harán de estas actividades su medio de vida.
La evolución de Internet a convertirse en un popular medio de comunicación, entretenimiento y noticias, continuará en ascenso. La base de usuarios online se incrementará al incluir muchos dispositivos móviles inteligentes, capaces de usar la red para intercambiar o transferir información sin necesidad de intervención humana.
via : Diario Ti
domingo, 13 de marzo de 2011
Sistemas Expertos
DEFINICIONES DE LOS SISTEMAS EXPERTOS
Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción lógica de conclusiones.
Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.
Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.
Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información a cerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.
Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.
Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).
Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos.
¿Por qué utilizar un Sistema Experto?
1. Con la ayuda de un Sistema Experto, personas con poca experiencia pueden resolver problemas que requieren un "conocimiento formal especializado".
2. Los Sistemas Expertos pueden obtener conclusiones y resolver problemas de forma más rápida que los expertos humanos.
3. Los Sistemas Expertos razonan pero en base a un conocimiento adquirido y no tienen sitio para la subjetividad.
4. Se ha comprobado que los Sistemas Expertos tienen al menos, la misma competencia que un especialista humano.
5. El uso de Sistemas Expertos es especialmente recomendado en las siguientes situaciones:
o Cuando los expertos humanos en una determinada materia son escasos.
o En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas.
o Cuando es muy elevado el volumen de datos que ha de considerarse para obtener una conclusión.
APLICACIONES
Sus principales aplicaciones se dan en las gestiones empresariales debido a que;
a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se esta realizando) Fiscalidad, planificación, análisis financiero y la contabilidad financiera.
Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción lógica de conclusiones.
Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.
Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.
Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información a cerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.
Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.
Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).
Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos.
¿Por qué utilizar un Sistema Experto?
1. Con la ayuda de un Sistema Experto, personas con poca experiencia pueden resolver problemas que requieren un "conocimiento formal especializado".
2. Los Sistemas Expertos pueden obtener conclusiones y resolver problemas de forma más rápida que los expertos humanos.
3. Los Sistemas Expertos razonan pero en base a un conocimiento adquirido y no tienen sitio para la subjetividad.
4. Se ha comprobado que los Sistemas Expertos tienen al menos, la misma competencia que un especialista humano.
5. El uso de Sistemas Expertos es especialmente recomendado en las siguientes situaciones:
o Cuando los expertos humanos en una determinada materia son escasos.
o En situaciones complejas, donde la subjetividad humana puede llevar a conclusiones erróneas.
o Cuando es muy elevado el volumen de datos que ha de considerarse para obtener una conclusión.
APLICACIONES
Sus principales aplicaciones se dan en las gestiones empresariales debido a que;
a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se esta realizando) Fiscalidad, planificación, análisis financiero y la contabilidad financiera.
viernes, 11 de marzo de 2011
Teléfono móvil y el cerebro
Las llamadas de telefonía móvil alteran la actividad cerebral
Pasar 50 minutos con un móvil pegado a la oreja es suficiente para cambiar la actividad de las células cerebrales en la parte del cerebro más próxima a la antena. Sin embargo, si eso produce algún daño o no todavía no está claro.
"Lo que mostramos es que el metabolismo de la glucosa (un signo de actividad cerebral) aumenta en el cerebro de las personas que estuvieron expuestas a un teléfono móvil en la zona próxima a la antena", señaló la Dra. Nora Volkow.
FUENTE: TELEFONÍA MÓVIL
Pasar 50 minutos con un móvil pegado a la oreja es suficiente para cambiar la actividad de las células cerebrales en la parte del cerebro más próxima a la antena. Sin embargo, si eso produce algún daño o no todavía no está claro.
"Lo que mostramos es que el metabolismo de la glucosa (un signo de actividad cerebral) aumenta en el cerebro de las personas que estuvieron expuestas a un teléfono móvil en la zona próxima a la antena", señaló la Dra. Nora Volkow.
FUENTE: TELEFONÍA MÓVIL
Suscribirse a:
Entradas (Atom)