17 de diciembre de 2023

LEGISLACIÓN. Claves fundamentales de la Ley de la Inteligencia Artificial de la UE, que será la primera Ley de IA del mundo.

La UE está a punto de convertirse en la policía mundial de la IA con normas vinculantes sobre transparencia, ética, y más.

La Ley de IA se concibió como un proyecto de ley histórico, que mitigaría los perjuicios en ámbitos donde el uso de la IA supone un mayor riesgo para los derechos fundamentales. 

Por ejemplo, la sanidad, la educación, la vigilancia de fronteras y los servicios públicos, además de prohibir los usos que supongan un "riesgo inaceptable".

Los sistemas de IA de "alto riesgo" deberán cumplir unas estrictas normas que exijan, por ejemplo, sistemas de mitigación de esos riesgos, conjuntos de datos de alta calidad, mejor documentación y supervisión humana. Sin embargo, la gran mayoría de los usos de la IA, como los sistemas de recomendación y los filtros de spam, tendrán vía libre.

La Ley de IA es un gran acuerdo, ya que introducirá importantes normas y mecanismos de aplicación en un sector muy influyente que ahora avanza sin control.

PRINCIPALES CONCLUSIONES DEL ACUERDO PROVISIONAL

En comparación con la propuesta inicial de la Comisión Europea, los principales elementos nuevos del acuerdo provisional pueden resumirse como sigue:

  1. Reglas sobre modelos de IA de propósito general de alto impacto que puedan causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo
  2. Un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE
  3. Ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias.
  4. Una mejora en la protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA.

En términos más concretos, el acuerdo provisional cubre los siguientes aspectos:

Definiciones y alcance

Para garantizar que la definición de un sistema de IA proporcione criterios suficientemente claros para distinguir la IA de los sistemas de software más simples, el acuerdo de compromiso alinea la definición con el enfoque propuesto por la OCDE.

El acuerdo provisional también aclara que el reglamento no se aplica a áreas fuera del alcance de la legislación de la UE y no debería, en ningún caso, afectar las competencias de los Estados miembros en materia de seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en esta área. Además, la ley de IA no se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa. De manera similar, el acuerdo establece que la regulación no se aplicaría a los sistemas de IA utilizados con el único fin de investigación e innovación, ni a las personas que utilizan la IA por motivos no profesionales.

Clasificación de sistemas IA como prácticas prohibidas y de alto riesgo 

El acuerdo de compromiso prevé una capa horizontal de protección, incluida una clasificación de alto riesgo, para garantizar que no se capturen los sistemas de inteligencia artificial que probablemente no causen violaciones graves de los derechos fundamentales u otros riesgos importantes. Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, por ejemplo, revelar que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.

Se autorizaría una amplia gama de sistemas de IA de alto riesgo, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Estos requisitos han sido aclarados y ajustados por los colegisladores de tal manera que sean más viables técnicamente y menos gravosos de cumplir para las partes interesadas, por ejemplo, en lo que respecta a la calidad de los datos o en relación con la documentación técnica que debe ser elaborada por pymes para demostrar que sus sistemas de IA de alto riesgo cumplen los requisitos.

Dado que los sistemas de IA se desarrollan y distribuyen a través de cadenas de valor complejas, el acuerdo de compromiso incluye cambios que aclaran la asignación de responsabilidades y roles de los diversos actores en esas cadenas, en particular los proveedores y usuarios de sistemas de IA. También aclara la relación entre las responsabilidades en virtud de la Ley de IA y las responsabilidades que ya existen en virtud de otra legislación, como la legislación sectorial o de protección de datos de la UE pertinente.

Para algunos usos de la IA, el riesgo se considera inaceptable y, por lo tanto, estos sistemas serán prohibidos en la UE. El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitivo-conductual, la eliminación no selectiva de imágenes faciales de Internet o imágenes de CCTV, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o creencias reeligiosas y algunos casos de vigilancia policial predictiva para individuos.

Excepciones de aplicación de la ley

Teniendo en cuenta las especificidades de las autoridades encargadas de hacer cumplir la ley y la necesidad de preservar su capacidad de utilizar la IA en su trabajo vital, se acordaron varios cambios en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Sujetos a las salvaguardias adecuadas, estos cambios pretenden reflejar la necesidad de respetar la confidencialidad de los datos operativos sensibles en relación con sus actividades. Por ejemplo, se ha introducido un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar en caso de urgencia una herramienta de inteligencia artificial de alto riesgo que no haya pasado el procedimiento de evaluación de la conformidad. Sin embargo, también se ha introducido un mecanismo específico para garantizar que los derechos fundamentales estén suficientemente protegidos contra posibles usos indebidos de los sistemas de IA.

Además, en lo que respecta al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, el acuerdo provisional aclara los objetivos cuando dicho uso sea estrictamente necesario para fines policiales y para los cuales, por tanto, debe permitirse excepcionalmente a las autoridades policiales utilizar dichos sistemas. El acuerdo de compromiso prevé salvaguardias adicionales y limita estas excepciones a los casos de víctimas de ciertos delitos, la prevención de amenazas genuinas, presentes o previsibles, como ataques terroristas, y la búsqueda de personas sospechosas de los delitos más graves.

Sistemas de IA de propósito general y modelos básicos

Se han añadido nuevas disposiciones para tener en cuenta situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes (IA de propósito general) y en las que la tecnología de IA de propósito general se integra posteriormente en otro sistema de alto riesgo. El acuerdo provisional también aborda los casos específicos de los sistemas de IA de propósito general (GPAI).

También se han acordado reglas específicas para los modelos básicos, grandes sistemas capaces de realizar de manera competente una amplia gama de tareas distintivas, como generar vídeo, texto, imágenes, conversar en lenguaje lateral, informática o generar código informático. El acuerdo provisional establece que los modelos de base deben cumplir con obligaciones específicas de transparencia antes de su comercialización. Se introdujo un régimen más estricto para los modelos de fundaciones de “alto impacto”. Se trata de modelos básicos entrenados con una gran cantidad de datos y con una complejidad, capacidades y rendimiento avanzados muy por encima del promedio, que pueden difundir riesgos sistémicos a lo largo de la cadena de valor.

Una nueva arquitectura de gobernanza

A raíz de las nuevas normas sobre los modelos GPAI y la evidente necesidad de su aplicación a nivel de la UE, se crea una Oficina de IA dentro de la Comisión encargada de supervisar estos modelos de IA más avanzados, contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las normas comunes en todos los estados miembros. Un panel científico de expertos independientes asesorará a la Oficina de AI sobre los modelos GPAI, contribuyendo al desarrollo de metodologías para evaluar las capacidades de los modelos de cimientos, asesorando sobre la designación y el surgimiento de modelos de cimientos de alto impacto y monitoreando posibles riesgos de seguridad de materiales relacionados. a modelos de cimentación.

La Junta de AI, que estaría compuesta por representantes de los Estados miembros, seguirá siendo una plataforma de coordinación y un órgano asesor de la Comisión y otorgará un papel importante a los Estados miembros en la implementación del reglamento, incluido el diseño de códigos de prácticas para modelos de fundación. Por último, se creará un foro consultivo para las partes interesadas, como representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, para proporcionar los conocimientos técnicos a la Junta de IA.

Penalizaciones

Las multas por violaciones de la ley de IA se establecieron como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, el que fuera mayor. Una cifra que representaría 35 millones de euros o el 7% por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% por violaciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta. Sin embargo, el acuerdo provisional establece límites más proporcionados a las multas administrativas para las pymes y las empresas de nueva creación en caso de infracción de las disposiciones de la Ley de IA.

El acuerdo de transacción también deja claro que una persona física o jurídica puede presentar una queja ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la Ley de IA y puede esperar que dicha queja se tramite de acuerdo con los procedimientos específicos de esa autoridad.

Transparencia y protección de los derechos fundamentales

El acuerdo provisional prevé una evaluación del impacto sobre los derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo. El acuerdo provisional también prevé una mayor transparencia con respecto al uso de sistemas de inteligencia artificial de alto riesgo. En particular, se han modificado algunas disposiciones de la propuesta de la Comisión para indicar que ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo. Además, las disposiciones recientemente añadidas hacen hincapié en la obligación de que los usuarios de un sistema de reconocimiento de emociones informen a las personas físicas cuando estén expuestas a dicho sistema.

Medidas de apoyo a la innovación

Con vistas a crear un marco jurídico más favorable a la innovación y promover el aprendizaje normativo basado en pruebas, las disposiciones relativas a las medidas de apoyo a la innovación se han modificado sustancialmente en comparación con la propuesta de la Comisión.

En particular, se ha aclarado que los entornos limitados de pruebas regulatorias de IA, que se supone deben establecer un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real. Además, se han agregado nuevas disposiciones que permiten probar sistemas de IA en condiciones del mundo real, bajo condiciones y salvaguardias específicas. Para aliviar la carga administrativa para las empresas más pequeñas, el acuerdo provisional incluye una lista de acciones que deben emprenderse para apoyar a dichos operadores y prevé algunas derogaciones limitadas y claramente especificadas.

Entrada en vigor

El acuerdo provisional establece que la ley sobre IA debería aplicarse dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.

Próximos pasos

Tras la firma del acuerdo provisional, en las próximas semanas se seguirá trabajando a nivel técnico para ultimar los detalles del nuevo reglamento. La Presidencia presentará el texto transaccional a los representantes de los Estados miembros (Coreper) para su aprobación una vez concluido este trabajo.

El texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores

Fuente: administacionelectronica.gob.es

CONCLUSIÓN

1. La Ley de IA introduce normas importantes y vinculantes, de transparencia y ética

A las empresas tecnológicas les encanta hablar de su compromiso con la ética de la IA. Pero, cuando se trata de medidas concretas, la conversación se estanca. En cualquier caso, los hechos dicen más que las palabras. Los equipos responsables de IA suelen ser los primeros en sufrir recortes durante los despidos y las empresas tecnológicas pueden cambiar sus políticas éticas en materia de IA en cualquier momento. Por ejemplo, OpenAI empezó como un laboratorio de investigación de IA "abierta" antes de cerrar el acceso público a su investigación para conservar su ventaja competitiva, como cualquier otra start-up de IA.

La ley cambiará esta situación. El reglamento impone normas jurídicamente vinculantes que obligan a las empresas tecnológicas a notificar a los usuarios cuando interactúan con un chatbot, sistemas de categorización biométrica o de reconocimiento de emociones. También exigirá que se etiqueten tanto los deepfakes como los contenidos generados por IA, y se diseñen los sistemas de forma que puedan detectarse los medios generados por IA. Es un paso más allá de los compromisos voluntarios que las principales empresas de IA contrajeron con la Casa Blanca para limitarse a desarrollar herramientas de procedencia de la IA, como las marcas de agua.

El proyecto de ley también obligará a todas las organizaciones que ofrecen servicios esenciales, como seguros y banca, a realizar una evaluación de impacto sobre cómo afectará el uso de sistemas de IA a los derechos fundamentales de las personas.

2. Las empresas de IA aún tienen mucho margen de maniobra

En 2021, cuando se presentó por primera vez la Ley de IA, la población aún hablaba del metaverso.

En un mundo post-ChatGPT, los legisladores consideraron que la regulación debía tener en cuenta a los denominados modelos de lenguaje, unas potentes herramientas de IA que pueden utilizarse para fines muy distintos. Esto provocó un intenso debate sobre qué tipo de modelos deberían regularse, y si esta regulación podría acabar con la innovación.

La Ley de IA exigirá que los modelos fundacionales y los sistemas de IA creados a partir de ellos mejoren la documentación, cumplan la legislación de la UE sobre derechos de autor y compartan más información sobre los datos con los que se ha entrenado el modelo. Y, para los modelos más potentes, hay requisitos adicionales. Por ejemplo, las empresas tecnológicas tendrán que informar sobre la seguridad y eficiencia energética de sus modelos de IA.

No obstante, aquí está el truco. El compromiso al que han llegado los legisladores consiste en aplicar un conjunto de normas más estrictas solo a los modelos de IA más potentes, en función de la potencia informática necesaria para entrenarlos. Y corresponderá a las empresas evaluar si entran dentro de las normas más estrictas.

Un funcionario de la Comisión Europea no quiso confirmar si el límite actual incluiría potentes modelos como GPT-4 de OpenAI o Gemini de Google, porque solo las propias empresas saben cuánta potencia de cálculo utilizaron para entrenar sus modelos. El funcionario sí afirmó que, a medida que se desarrolle la tecnología, la UE podría cambiar la forma de medir la potencia de los modelos de IA.

3. La UE se convertirá en la primera policía de la IA del mundo

La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar su cumplimiento, aplicación y ejecución. Será el primer organismo mundial que aplique normas vinculantes sobre IA, y la UE espera que esto le ayude a convertirse en el regulador tecnológico mundial de referencia. El mecanismo de gobernanza de la Ley de IA también incluye a un grupo científico de expertos independientes que ofrezca orientación sobre los riesgos sistémicos que plantea la IA, y cómo clasificar y probar los modelos.

Las multas por incumplimiento son elevadas: del 1,5% al 7% de la facturación global de una empresa, dependiendo de la gravedad de la infracción y del tamaño de la empresa.

Europa también se convertirá en uno de los primeros lugares del mundo donde los ciudadanos podrán presentar quejas sobre los sistemas de IA y recibir explicaciones sobre cómo estos sistemas han llegado a las conclusiones que les afectan.

Al ser la primera en formalizar normas en torno a la IA, la UE conserva su ventaja. Al igual que el RGPD, la Ley de IA podría convertirse en una norma mundial. Las empresas de otros países que quieran hacer negocios en la segunda economía mundial tendrán que cumplir la ley. Las normas de la UE también van un paso más allá que las introducidas por EE UU, como la orden ejecutiva de la Casa Blanca, ya que son vinculantes.

4. La seguridad nacional siempre gana

Algunos usos de la IA ahora están prohibidos en la UE: los sistemas de categorización biométrica que utilizan características más sensibles, el raspado no selectivo de imágenes faciales de internet o grabaciones de CCTV [circuito cerrado de televisión] para crear bases de datos de reconocimiento facial como Clearview AI. Además, el reconocimiento de emociones en el trabajo o las escuelas, el scoring (puntuación) social, los sistemas de IA que manipulan el comportamiento humano, y la IA utilizada para explotar las vulnerabilidades de las personas.

Se prohíbe también la actuación policial predictiva, a menos que se utilice con "una clara evaluación humana y hechos objetivos, que no dejen la decisión de ir a por un individuo concreto en una investigación penal solo porque lo indique un algoritmo", según un funcionario de la Comisión Europea.

Sin embargo, la Ley de IA no se aplica a los sistemas desarrollados de manera exclusiva para usos militares y de defensa.

Una de las luchas más cruentas en torno a la Ley de IA ha sido siempre cómo regular el uso policial de sistemas biométricos en lugares públicos, muchos temen que pueda conducir a una vigilancia masiva. Mientras el Parlamento Europeo impulsaba una prohibición casi total de esta tecnología, algunos países de la UE, como Francia, se han resistido de manera feroz. Pues quieren utilizarla para luchar contra la delincuencia y el terrorismo.

Las fuerzas policiales europeas solo podrán utilizar sistemas de identificación biométrica en lugares públicos si antes obtienen la aprobación judicial, y para 16 delitos específicos, como terrorismo, trata de seres humanos, explotación sexual de menores y tráfico de drogas. Las fuerzas del orden también podrán utilizar sistemas de IA de alto riesgo que no superen las normas europeas en "circunstancias excepcionales relacionadas con la seguridad pública".

5. ¿Y ahora qué?

Podrían pasar semanas o incluso meses antes de que veamos la redacción final del proyecto de ley. El texto aún tiene que sufrir algunos retoques técnicos, además de ser aprobado por los países europeos y el Parlamento de la UE antes de entrar en vigor de manera oficial.

Una vez esté vigente, las empresas tecnológicas tienen dos años para aplicar las normas. Las prohibiciones de los usos de la IA se aplicarán a los seis meses, y las empresas que desarrollen modelos fundacionales tendrán que cumplir la ley en el plazo de un año.

POSDATA

Entiendo que el chollo para que las IA les escriban los discursos a políticos conservadores y ultraconservadores, está cerca de acabar, con la futura entrada en vigor de la anteriormente expuesta ley de Inteligencia Artificial de la UE. 

Conclusión a la que he llegado esta misma mañana, tras estar escribiendo estos artículos, mientras escuchaba las noticias en TV, porque considero, que personas íntegras y cabales como les supongo a los líderes del PP y Vox,  son incapaces de lanzar "motu proprio" semejantes falsedades y afirmaciones tan hiperbólicas, que solo pueden ser producto de mentes enfermizas o de entidades diabólicas artificiales como las IA. 

Y por ello me inclino a pensar que las IA son quienes les escriben los discursos, lo cual me lleva a pensar que en ese caso, muy sobrados de inteligencia e imaginación no están, y que además no se molestan en dedicar el tiempo necesario para expresar sus ideas y opiniones personales, menospreciando a los ciudadanos, que no sé  que será peor.

Fuente: Redacción

CIBERSEGURIDAD. Previsiones para 2024

 Llegan las navidades, seguido del nuevo año, tiempo de desear felicidad y próspero año nuevo, pero también hay que pedir menos guerras de cualquier tipo, y al poder ser ninguna. Y como todo eso a la vez y en todas partes, no va ser posible, vaya por delante nuestra aportación en lo concerniente a la guerra contra la ciberdelincuencia.

Los expertos subrayan la necesidad de que los consumidores estén atentos a las amenazas altamente personalizadas sobre ciberseguridad.

 Desde los ciberdelincuentes que utilizan deepfakes para imitar la voz y la apariencia de familiares o colegas hasta las aplicaciones de spyware distribuidas a través de anuncios o mensajes directos creíbles, este 2024 será más importante que nunca comprobar que lo que crees ver, oír, leer y hacer clic es realmente lo que parece ser.

La ciberseguridad será cotidiana

«En 2024, la ciberseguridad estará aún más arraigada en la vida cotidiana del ciudadano medio. Lejos quedan los días en que los problemas de ciberseguridad eran solo para las empresas o las personas ‘más digitales’. Nuestro equipo de expertos prevé que la Inteligencia Artificial (IA) desempeñará un enorme papel en la forma en que se crearán las amenazas, permitiendo a los delincuentes crear estafas aún más sofisticadas y creíbles», dijo Michal Pechoucek, director de tecnología de Gen. 

«Cada correo electrónico, texto, anuncio o llamada telefónica debe ser analizada cuidadosamente para garantizar que no hay un estafador al otro lado” 

PREDICCIONES PARA 2024

La IA impulsará un aumento de la ciberdelincuencia

Los expertos esperan que 2024 sea un año histórico para la diversificación de las capacidades de la IA. Los ciberdelincuentes ya no se limitarán a la generación de texto, ahora dispondrán de herramientas de conversión de texto a vídeo y otras de creación multimedia. Estos avances harán cada vez más difícil distinguir un vídeo grabado de verdad de uno generado, especialmente cuando los vídeos se cortan con frecuencia, como ocurre con los informativos de televisión.

La ingeniería social será más pronunciada

Los actores de amenazas saben que la mejor manera de conseguir lo que quieren es a través de la manipulación de las emociones y vulnerabilidades de las personas, lo que también se conoce como ingeniería social.

En 2024, los expertos de Gen apuntan a que los ciberdelincuentes utilizarán contenido generado por IA en redes sociales para difundir noticias falsas, anuncios engañosos, deepfakes de figuras públicas o incluso mensajes directos que parezcan proceder de contactos de confianza.

Más allá de las redes sociales, este tipo de ataques de ingeniería social se profundizarán en las empresas con la evolución de los ataques de Compromiso de Comunicación Empresarial (BCC, por sus siglas en inglés) (antes conocidos como ataques de Compromiso de Correo Electrónico Empresarial o BEC, por sus siglas en inglés), en los que los actores de amenazas utilizan IA para imitar la voz o la apariencia de altos ejecutivos.

Chantaje digital, a particulares como a empresas, será cada vez más selectivo.

Los ciberdelincuentes suelen pedir un rescate por los datos robados; en 2024, los expertos de Gen esperan que el chantaje sea más astuto, con datos comprados en la web oscura o robados a través de la explotación de la infraestructura VPN. Además, los ataques a la infraestructura de la nube aumentarán significativamente, creando desafíos significativos para el trabajo remoto y las estructuras organizativas basadas en la nube. Los métodos de extorsión también evolucionarán más allá del cifrado tradicional para incluir a delincuentes que extorsionan a personas y empresas mediante métodos como la sextorsión.

Más aplicaciones móviles espiarán y extorsionarán

A medida que la tecnología financiera sigue avanzando, crece la preocupación por el aumento de prácticas maliciosas en el sector de las aplicaciones de préstamos instantáneos. Con la creciente popularidad del acceso rápido y fácil a préstamos a través de aplicaciones móviles, algunos prestamistas sin escrúpulos recurren a tácticas poco éticas para asegurarse el reembolso. Los expertos de Gen afirman que podríamos asistir a un aumento de la creación y distribución de falsas aplicaciones de chat dirigidas a dispositivos móviles, que ocultan módulos de robo de criptomonedas o spyware dentro de sus interfaces aparentemente inocentes.

Criptomonedas

La rápida evolución del panorama de las criptomonedas generará nuevas oportunidades para los ciberdelincuentes. Con la naturaleza descentralizada de las criptomonedas, la oportunidad de revertir el fraude y señalar las estafas es casi imposible. Los expertos de Gen creen que los ciberdelincuentes atacarán a los propietarios de criptomonedas a través de una serie de vías, desde la violación de los intercambios de criptomonedas o los protocolos de intercambio entre divisas, utilizando ladrones de malware como servicio en rápido desarrollo, hasta la explotación de contratos inteligentes.

Ciberamenazas

A medida que las ciberamenazas se vuelven más sofisticadas, selectivas y difíciles de detectar en 2024, Gen tiene como objetivo armar a los consumidores con herramientas, conocimientos y consejos para ayudar a protegerse a sí mismos y a su Libertad Digital.

Para protegerse frente a las amenazas en evolución, los expertos en ciberseguridad recomiendan:

  1. Sé escéptico.- Los ciberdelincuentes suelen hacerse pasar por empresas, organizaciones o personas populares de tu red. Nunca haga clic directamente en botones o enlaces sin indagar y verificar quién se los envía realmente. Si no estás seguro de si un mensaje de texto, un correo electrónico o una red social es una estafa, Avast Free Antivirus puede detectar y notificar los enlaces maliciosos y los archivos adjuntos infectados.
  2. Gestione sus contraseñas.- Asegúrate de que tu contraseña es única y evita utilizar la misma en diferentes cuentas. Utilice la autenticación multifactor cuando esté disponible. Herramientas como Avast Passwords generan y gestionan contraseñas seguras y complejas, lo que permite a los usuarios asegurarse de que cada cuenta tiene una contraseña distinta para evitar que varias cuentas se vean comprometidas cuando se reutilizan las contraseñas.
  3. Obtenga privacidad, seguridad y protección de la identidad.- Con el creciente volumen y sofisticación de los robos de identidad, las herramientas que te alertan cuando tus datos se han visto comprometidos son vitales.  Avast Premium Security ofrece una protección contra las amenazas más sofisticadas y además no solo detecta si se han expuesto datos, sino que también ayuda a solucionar problemas.
  4. Proteja algo más que su ordenador.- Con el aumento de las aplicaciones móviles maliciosas que permiten a los ciberdelincuentes rastrear la actividad en línea, asegúrese de mantener una seguridad móvil actualizada en su teléfono, con su antivirus preferido.

Fuente: Diario16.com