GRUPO Nº 5

 

 República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Universitaria.

Universidad Nacional Experimental de la Gran Caracas.

PNF: Administración.

Cátedra: Informática y Sociedad.

Trayecto Inicial. Sección: GFI059.

Estudiante: Sneller Pérez. C.I: 26.454.584.

ANÁLISIS CRÍTICO.

Primeramente, la informática es una ciencia científica que analiza una acción automática de la información mediante dispositivos electrónicos, especialmente de las computadoras. Ésta abarca desde el desarrollo del software y hardware hasta la gestión de datos y redes; permitiendo la automatización de procesos industriales y administrativos.

Así, en la informática existen varios autores que desarrollaron diversos tratamientos para el avance de la informática. Uno de ellos es John Berners-Lee, que fue un científico de la computación británico. En esencia, aunque Internet (una red física de computadoras) ya existía, Berners-Lee inventó la Web (la capa de información y navegación que utilizamos hoy), haciéndola amigable y accesible al público masivo. De ahí se dió a conocer universalmente como el padre de la Word Wide Web (WWW).

Por lo tanto, estos fueron los avances que contribuyó para la ciencia de la informática:

• Invención de la WWW: Creó la Word Wide Web mientras trabajaba en el CERN (Organización Europea para la Investigación Nuclear) en 1989. Su objetivo era facilitar el intercambio de información entre científicos.

• Protocolos y Lenguajes Fundamentales:

o HTTP (Protocolo de Transferencia de Hipertexto): El protocolo para la comunicación entre un cliente y un servidor web.

o HTML (Lenguaje de Marcado de Hipertexto): El lenguaje utilizado para construir las páginas web.

o URL (Localizador Uniforme de Recursos): El sistema de direcciones único para cada recurso en la web.

También, fue un firme defensor de la neutralidad en la red y la importancia del acceso a la información libre y abierta para todos. Famosamente, decidió no patentar su invento, lo que permitió a la web crecer sin restricciones. Y fue el director de la organización Word Wide Web Consortium (W3C), siendo ésta una organización que desarrolla y mantiene los estándares de la web.

Por otro lado, la Informática y la Sociedad aborda al estudio y la interacción dinámica entre la tecnología de la información, aplicación, la estructura, cultura y funcionamiento de la comunidad humana; transformando los diversos aspectos de la vida: social, cultural, económica, empresarial, estudiantil y política. siendo éste un campo esencial para comprender la era digital actualmente.

Objetivos de la Informática en la Sociedad

Los objetivos principales de la informática, en su impacto social y funcional, son:

• Automatizar Procesos: Lograr la eficiencia, rapidez y precisión en la gestión de datos y la ejecución de tareas, reemplazando o asistiendo el trabajo manual (por ejemplo, en la industria o la banca).

• Facilitar la Comunicación y el Acceso: Conectar personas, culturas y conocimientos a nivel global, universalizando el acceso a la información y fomentando la colaboración.

• Optimizar la Gestión del Conocimiento: Desarrollar sistemas para la recolección, organización, almacenamiento, recuperación y uso de grandes volúmenes de datos para la toma de decisiones.

• Mejorar la Calidad de Vida: Aplicar la tecnología para impulsar avances en campos críticos como la salud (telemedicina), la educación (e-learning) y la movilidad urbana.

Características de la informática

• Superación de Barreras: Permiten superar las barreras de la distancia y el tiempo, facilitando la comunicación instantánea y el acceso a la información desde casi cualquier lugar.

• Redes como Indicador: Las redes (como Internet) son un indicador clave que permite la concepción de un mundo interconectado.

• Exceso de Información: Hay una disponibilidad de información mucho mayor que en épocas anteriores.

• Automatización: Permite la automatización y robotización de tareas repetitivas en la industria.

• Ubicuidad: Está presente en la vida cotidiana a través de teléfonos inteligentes, aplicaciones bancarias, redes sociales y dispositivos domésticos inteligentes.

Justificativos.

La relevancia y necesidad de la informática en la sociedad se justifican en varios planos:

• Desarrollo Económico: Es fundamental para la competitividad empresarial y el aumento de la productividad. Las empresas modernas dependen de los sistemas de información para la gestión y la estrategia.

• Cambio Social: Ha impulsado una nueva estructura social (la Sociedad de la Información), donde el capital más valioso es el conocimiento y los datos.

• Inclusión y Equidad: Brinda herramientas para reducir barreras geográficas y facilitar el acceso a la educación y servicios esenciales, combatiendo la exclusión (aunque también genera la brecha digital si no se gestiona bien).

• Innovación y Avance: Es la base para el desarrollo de tecnologías de vanguardia como la Inteligencia Artificial (IA), el Big Data y la Robótica, que impulsan el progreso científico y tecnológico.

• Transparencia y Democracia: Permite el manejo y difusión masiva y velocidad de información, fortaleciendo potencialmente la participación ciudadana y el control sobre la gobernanza pública.

En fin, el científico Berners-Lee contribuyó a uno de los tantos avances tecnológicos, lo que desató un mayor impacto en la informática que avanzó para el uso correcto de los diferentes dispositivos tecnológicos y las diversas plataformas web, llevando a cabo el uso de éste en la sociedad. Así, a medida que se fueron realizando los tratamientos científicos en la informática y la sociedad, se dictaron objetivos para saber a dónde se quiere llegar, las características para saber su uso y competitividad en los dos campos, y los justificativos que nos habla de toda la relevancia que se ha obtenido a lo largo que se analizan estás disciplinas. Por ello, hoy en día es muy importante la conexión entre la informática con la sociedad, ya que sin ésta no tuviera avances e innovaciones en ninguna de las dos especialidades.



República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Universitaria.

Universidad Nacional Experimental de la Gran Caracas.

PNF: Administración.

Cátedra: Informática y Sociedad.

Trayecto Inicial. Sección: GFI059.

Estudiante: Diego Guardia

C.I. 31109250

 

 

DEFINICIÓN.

El área de Lenguajes y Sistemas Informáticos (LSI) es una disciplina fundamental dentro de la Ciencia de la Computación, dedicada al estudio, diseño, implementación y análisis de las herramientas y metodologías necesarias para la creación eficiente y robusta de software. Su esencia radica en la articulación de la lógica humana con la capacidad operativa de las máquinas.

ANÁLISIS CRÍTICO.

El campo de Lenguajes y Sistemas Informáticos (LSI) es el motor de la digitalización global, y como todo motor potente, genera gran avance, pero también calor y residuos.

 

I. Introducción: De la Lógica Pura al Impacto Global

La disciplina de LSI constituye la base teórica y práctica para la construcción de la realidad digital. Su éxito radica en su capacidad para la abstracción, permitiendo que problemas complejos del mundo real se traduzcan en modelos algorítmicos que las máquinas pueden procesar (Lenguajes), y en su capacidad para la gestión eficiente de recursos (hardware y datos) para la ejecución a escala (Sistemas). No obstante, es precisamente esta ubicuidad y poder lo que genera las críticas más significativas.

 

II. Críticas al Componente de Lenguajes: Abstracción y Deuda Técnica

El desarrollo de software se ha movido hacia lenguajes de alto nivel (Python, JavaScript, etc.) que ofrecen comodidad y velocidad, pero esto conlleva desafíos:

 

A. La Paradoja de la Abstracción

Crítica: Los lenguajes modernos ocultan una inmensa complejidad a bajo nivel (gestión de memoria, interacción con el SO). Si bien esto acelera la producción, crea una generación de desarrolladores que dependen de bibliotecas y frameworks sin comprender los fundamentos de la computación.

 

Consecuencia: Fallas de rendimiento inexplicables, ineficiencias energéticas (código que requiere más hardware para una tarea sencilla) y vulnerabilidades sutiles que solo se detectan al nivel del sistema operativo o el compilador.

 

B. La Crisis de la Deuda Técnica

Crítica: Las metodologías de desarrollo ágil (Agile) y la presión del mercado priorizan la rapidez de entrega (time-toNo-market) sobre la calidad. Esto lleva a la acumulación de "deuda técnica": código mal estructurado, sin documentación y con soluciones temporales (hacks).

 

Impacto: El mantenimiento y la escalabilidad del software se vuelven exponencialmente más caros con el tiempo. La velocidad inicial se paga con la rigidez y la lentitud futura, amenazando la sostenibilidad de los sistemas a largo plazo.

 

III. Críticas al Componente de Sistemas: Vulnerabilidad y Centralización

El análisis de los sistemas informáticos apunta a dilemas relacionados con la seguridad, el poder y la ética en la infraestructura.

 

A. La Vulnerabilidad Inevitable

Crítica: Los sistemas operativos y los grandes stacks de software son masivos y están construidos sobre capas y dependencias heredadas (código antiguo). Por consiguiente, es virtualmente imposible garantizar la ausencia total de bugs o fallos de seguridad.

 

Dilema de Seguridad: La seguridad en LSI se ha convertido en una carrera de armamento constante. Las fallas de diseño inherentes (ej. desbordamientos de búfer en C) y la complejidad del sistema provocan incidentes de ciberseguridad a escala masiva, desde la filtración de datos personales hasta ataques a infraestructuras críticas.

 

B. El Monopolio Tecnológico y la Centralización

Crítica: La tendencia hacia la computación en la nube (Cloud Computing) ha concentrado la infraestructura de software mundial en un puñado de proveedores (Amazon AWS, Microsoft Azure, Google Cloud).

 

Consecuencia Política y Económica: Esta centralización otorga un poder regulatorio y económico inmenso a pocas corporaciones, mientras que aumenta el riesgo sistémico: la caída de un solo proveedor puede paralizar miles de empresas y servicios públicos simultáneamente. Además, dificulta la soberanía tecnológica de naciones y entidades pequeñas.

 

IV. Críticas Éticas y Sociales: Los Sesgos en el Código

El impacto más profundo de LSI no es técnico, sino social, ya que los sistemas se han vuelto decisores automáticos.

 

A. El Dilema del Algoritmo Sesgado

Crítica: El software que utiliza Aprendizaje Automático (ML) se entrena con datos históricos que, inevitablemente, contienen sesgos sociales (racismo, discriminación de género, desigualdad económica). En consecuencia, el sistema informático replica y amplifica estos sesgos, volviendo la discriminación automática e invisible.

 

Ejemplo: Sistemas de software que evalúan solicitudes de crédito o currículos pueden penalizar inconscientemente a ciertos grupos demográficos, por lo tanto, el código se convierte en un agente activo de injusticia social.

 

B. La Falacia de la Neutralidad

Crítica: A menudo se asume que el software y los lenguajes son herramientas neutrales. No obstante, cada decisión de diseño (ej. qué métricas priorizar, qué características de hardware explotar) es una decisión política y social. La falta de transparencia (software de caja negra) en algoritmos clave (redes sociales, recomendaciones) es fundamental para la manipulación y la polarización de la información.

 

V. Conclusión Analítica: Hacia un LSI Responsable

En conclusión, LSI es la fuerza creativa más poderosa del siglo XXI, responsable de la automatización y la conectividad sin precedentes. Sin embargo, un análisis crítico revela que sus desafíos la deuda técnica, la fragilidad de la seguridad y los dilemas éticos de la automatización son inherentes a su propia complejidad y a las presiones del mercado.

 

El futuro de la disciplina exige un cambio de enfoque: no basta con crear software que funcione; es imperativo crear sistemas que sean justos, transparentes y sostenibles. Esto requiere integrar la ética, la filosofía y la responsabilidad social en todas las etapas de la ingeniería de software, desde la elección del lenguaje hasta el despliegue del sistema operativo.

 

CARACTERÍSTICAS

1. Rigor Formal (Precisión)    Los lenguajes poseen una sintaxis (estructura) y semántica (significado) estrictas y no ambiguas. Una desviación mínima resulta en un error de compilación o ejecución. Esta rigidez es necesaria para la comunicación binaria con la máquina.

2. Abstracción Capacidad del lenguaje para ocultar los detalles complejos del hardware subyacente. Los lenguajes de alto nivel permiten al programador enfocarse en la lógica del problema en lugar de en la gestión de memoria o registros del procesador.

3. Expresividad           La facilidad con la que un lenguaje permite expresar ideas complejas con poco código. Un lenguaje expresivo puede resolver una tarea en una línea que, en otro lenguaje, requeriría diez.

4. Portabilidad            Capacidad del código escrito en un lenguaje para ser ejecutado en diferentes sistemas operativos o arquitecturas de hardware con mínimas o nulas modificaciones.

5. Orientación a Paradigmas Los lenguajes se diseñan para fomentar un estilo de programación específico (por ejemplo, Programación Orientada a Objetos en Java o C++, o Funcional en Haskell).

JUSTIFICATIVOS

El principal justificativo para LSI es su rol como motor de la economía digital.

Automatización de Procesos: Los sistemas informáticos son la única vía para automatizar tareas repetitivas o de alta complejidad (contabilidad, gestión de inventarios, líneas de producción). Esto reduce costes, minimiza el error humano y libera capital humano para actividades de mayor valor añadido (creatividad, análisis).

 

Creación de Valor: LSI es el campo que diseña plataformas de e-commerce, aplicaciones móviles, y servicios en la nube. Estas herramientas no solo facilitan las transacciones, sino que crean modelos de negocio completamente nuevos (como la economía de plataformas o el streaming), justificando enormes inversiones.

 

2.  Justificativo Científico y de Investigación

LSI es fundamental para el avance de casi todas las demás ciencias.

 

Modelado y Simulación: La capacidad de modelar y simular fenómenos complejos (clima, dinámica de fluidos, estructuras moleculares) depende enteramente de la robustez de los lenguajes de programación de alto rendimiento y los sistemas distribuidos. La investigación en campos como la física nuclear, la climatología o la biología molecular simplemente no es viable sin supercomputadoras y el software asociado.

 

Gestión de Big Data: El volumen de datos generados hoy es inmanejable por métodos tradicionales. LSI justifica su existencia al proporcionar los sistemas de bases de datos y los algoritmos necesarios (minería de datos, machine learning) para extraer conocimiento y tomar decisiones informadas a partir de ese caos de información.

 

3. justificativo Operacional y de Confiabilidad

LSI es esencial para garantizar que las infraestructuras críticas del mundo funcionen de manera segura.

 

Soporte a la Infraestructura Crítica: Los sistemas informáticos controlan redes eléctricas, sistemas de navegación aérea, servicios bancarios y hospitales. Por consiguiente, la disciplina de LSI se justifica plenamente al asegurar que estos sistemas sean confiables, tolerantes a fallos y seguros (hardening de sistemas operativos, desarrollo de protocolos de red).

 

Manejo de la Complejidad: La complejidad del software moderno es intrínseca (como argumentaba Fred Brooks). LSI, a través de la Ingeniería de Software, justifica la creación de metodologías, lenguajes y herramientas que permiten gestionar, mantener y actualizar sistemas que contienen millones de líneas de código sin caer en el caos   

   

República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Universitaria.

Universidad Nacional Experimental de la Gran Caracas.

PNF: Informática 

Cátedra: Inteligencia Artificial (IA).

Trayecto Inicial. Sección: GFI059.

Estudiante: Ángel Mendoza 

C.I. 33.119.041

 

Definición:

 La Inteligencia Artificial (IA) es una disciplina científica nacida oficialmente en 1956, cuyo objetivo fundamental, postulado por figuras como John McCarthy y Marvin Minsky, es la simulación de las facultades cognitivas (como el aprendizaje, el razonamiento y la percepción) mediante la programación de ordenadores, bajo la premisa de que estas funciones pueden describirse con la suficiente precisión para ser reproducidas por una máquina. A lo largo de su trayectoria, y superando períodos de estancamiento, la IA ha resurgido gracias a la potencia de las máquinas y el aprendizaje profundo (deep learning), permitiendo el manejo de grandes volúmenes de datos para desarrollar aplicaciones que, en muchas áreas, ya superan las capacidades humanas, planteando al mismo tiempo importantes desafíos éticos respecto a la autonomía técnica y el futuro del trabajo.

Análisis Critico: 

Me parece que la presentación de la Inteligencia Artificial, si bien exhaustiva en su recorrido histórico desde Dartmouth, cae en una notable contradicción de origen. Es ingenuo descalificar la "IA fuerte" como simple fantasía, pues esa ambición especulativa es, en esencia, la semilla de la disciplina. Al reducir la AGI a mera ciencia ficción, el texto evita deliberadamente el debate más urgente sobre el futuro de la IA. Lo más cuestionable, sin embargo, es la forma en que el autor intenta apaciguar los temores éticos: argumentar que el peligro no existe porque la máquina carece de "voluntad propia" es un sofisma simplista. El riesgo no es una conciencia robótica malvada; es la eficiencia implacable y desalineada de una autonomía puramente técnica, que puede generar catástrofes al cumplir un objetivo programado sin la sensibilidad o el marco de valores humanos. En conclusión, el artículo es una buena crónica de lo que la IA ha hecho, pero una evaluación superficial de lo que verdaderamente podría llegar a significar.

 

1: Objetivos Principales de la Inteligencia Artificial

  1.1: Simulación de la Inteligencia:

  El objetivo inicial y fundamental es la simulación con máquinas de cada una de las distintas facultades de la inteligencia (humana, animal, social, etc.).

  1.2: Reproducción de Funciones Cognitivas: 

Más precisamente, se busca programar un ordenador para reproducir todas las funciones cognitivas que puedan describirse con precisión, tales como:

El aprendizaje.
 
* El aprendizaje.
 
*  El cálculo. 
 
*  La percepción.
 
*  La memorización.  
 
* El descubrimiento científico o la creatividad artística .
 
  1.3: Superación de Capacidades Humanas: 
 
En la etapa del resurgimiento (post-2010), un objetivo clave se ha convertido en superar las capacidades humanas en tareas específicas y complejas (como se ejemplifica con las victorias en ajedrez, Go y póker), utilizando técnicas como el deep learning y el big data. 
 
  1.4: Desarrollo de Sistemas Híbridos y Agentes Inteligentes: 
 
 La IA busca crear sistemas que convivan con otras disciplinas (como la robótica y la vida artificial) para generar agentes capaces de interactuar con el ser humano y su entorno, dando lugar a áreas como la informática emocional (affective computing) y los chatbots.
 
1.5: Soporte a la Investigación Científica: 
 
Proveer herramientas para una ruptura epistemológica en las ciencias mediante los experimentos in silico, ayudando a procesar cantidades masivas de datos para el descubrimiento (como determinar la función de macromoléculas biológicas). 
 
 
 
 2: Características:
 

  2.2: Capacidad de simulación cognitiva:

* Pueden simular o reproducir funciones propias de la inteligencia, como el razonamiento, el cálculo, la percepción, la memorización y el descubrimiento científico.

  2.3: Automatización de procesos:

Permiten la automatización de tareas rutinarias en diversos sectores (banca, salud, defensa), transformando flujos de trabajo y eliminando potencialmente ciertos empleos. 

  2.4: Operatividad Continua (24/7):

Los sistemas de IA no están sujetos a la fatiga ni a las limitaciones del horario humano, lo que les permite mantener una operación constante e ininterrumpida. Esta capacidad es esencial para la automatización de procesos rutinarios y para el análisis continuo de inmensas cantidades de datos, asegurando la eficiencia y la disponibilidad en sectores críticos (como la banca, el e-commerce o los sistemas de defensa).

 

3: Justificativos:

 

  3.1: Científico:

Valida la presunción original de que las funciones cognitivas pueden ser simuladas por máquinas, permitiendo una ruptura epistemológica en la ciencia mediante la realización de experimentos in silico con datos masivos. 

  3.2: Técnico/Rendimiento:  

Se justifica por su capacidad para superar el rendimiento humano en tareas específicas y ser la única tecnología capaz de procesar y extraer conocimiento automáticamente de cantidades inmensas de datos (big data).

  3.3: Socioeconómico:

Impulsa la automatización de tareas rutinarias y la optimización de la eficiencia en casi todos los sectores económicos (industria, salud, defensa), operando de manera continua (24/7). 

La Ciberseguridad 

La ciberseguridad, tal como la conocemos hoy, tiene sus raíces en los esfuerzos por proteger la información y los sistemas informáticos desde los inicios de la informática moderna. Uno de los autores más influyentes en este campo es Bruce Schneier, un reconocido experto en seguridad informática, quien ha destacado que la ciberseguridad no solo implica la protección técnica, sino también la gestión de riesgos y la comprensión de las amenazas en un entorno digital. Schneier ha contribuido significativamente al desarrollo de conceptos y estrategias para fortalecer la seguridad en la informática, promoviendo un enfoque integral que combina tecnología, políticas y comportamiento humano. Gracias a sus trabajos, la ciberseguridad ha evolucionado para convertirse en una disciplina esencial en la protección de datos, sistemas y redes en un mundo cada vez más interconectado.

La Ciberseguridad también se refiere al conjunto de prácticas, tecnologías y procesos diseñados para proteger los sistemas informáticos, redes, programas y datos contra ataques, daños, accesos no autorizados o alteraciones maliciosas en el entorno digital. Es una disciplina esencial en la era digital, ya que garantiza la confidencialidad, integridad y disponibilidad de la información en los entornos virtuales.


Características de la Ciberseguridad


Multidisciplinaria: Combina aspectos técnicos, legales y administrativos.

Evolutiva: Se adapta constantemente a las nuevas amenazas y tecnologías emergentes.

Proactiva y reactiva: Incluye medidas preventivas (como firewalls y antivirus) y respuestas a incidentes.

Integral: Abarca desde la protección de hardware y software hasta la formación de usuarios.

Global: Sus riesgos y soluciones trascienden fronteras, requiriendo cooperación internacional.


Objetivos de la Ciberseguridad


Proteger la confidencialidad: Asegurar que la información sensible solo sea accesible a personas autorizadas.


Garantizar la integridad: Mantener la precisión y completitud de los datos, evitando alteraciones no autorizadas.


Asegurar la disponibilidad: Garantizar que los sistemas y datos estén accesibles para los usuarios legítimos cuando se requiera.


Prevenir ataques y amenazas: Detectar, bloquear y responder a intentos de intrusión, malware, phishing y otros riesgos cibernéticos.


Cumplir con regulaciones: Asegurar el cumplimiento de leyes y normativas relacionadas con la protección de datos y privacidad.


Justificación de la Ciberseguridad


La necesidad de la ciberseguridad surge ante el incremento exponencial de las amenazas en el entorno digital, donde la dependencia de las tecnologías de la información ha crecido en todos los ámbitos de la sociedad, la economía y el gobierno. Sin una adecuada protección, la información puede ser vulnerada, lo que lleva a pérdidas económicas, daños a la reputación, robo de identidad, espionaje industrial y riesgos para la seguridad nacional.


La ciberseguridad es fundamental para mantener la confianza en los sistemas digitales, promover la innovación tecnológica y garantizar la continuidad de las operaciones en un mundo cada vez más conectado. Además, su creación responde a la necesidad de establecer marcos de protección que permitan afrontar los desafíos de un entorno digital en constante evolución.


¿Cómo se creó la Ciberseguridad?


La ciberseguridad como disciplina surgió en respuesta a la aparición de las primeras redes informáticas en los años 60 y 70, como ARPANET. Con el tiempo, a medida que crecían las amenazas y las vulnerabilidades, se desarrollaron conceptos y tecnologías específicas para proteger la infraestructura digital. La creación de normas, estándares y organismos internacionales, junto con avances en criptografía, firewalls, antivirus y sistemas de detección de intrusiones, formalizaron esta área. La ciberseguridad ha evolucionado desde simples medidas de protección hasta un campo complejo que integra tecnología, procesos y formación humana para enfrentar los desafíos del entorno digital moderno.


En conclusión, la ciberseguridad es una disciplina vital que protege nuestros sistemas y datos en un mundo digital cada vez más interconectado. Sus objetivos, características y justificación reflejan su importancia para salvaguardar la confianza, la privacidad y la continuidad de las operaciones en todos los ámbitos sociales y económicos. Su desarrollo ha sido fundamental para afrontar los riesgos asociados a la tecnología y seguir promoviendo la innovación segura.

 Israel Ortiz

 

 

 Análisis del vídeo de Castell



Análisis del vídeo




 

 

 

 

Comentarios

Entradas más populares de este blog

GRPO Nº 6

GRUPO Nº 4