Obrigação de Literacia no domínio da Inteligência Artificial

Blog 4/6/2025

Obrigação de Literacia no domínio da Inteligência Artificial

Ana Martins, Managing Director – Compliance, Governance & Sustainability da Timestamp, explica o requisito regulamentar de literacia em IA, essencial para uma utilização adequada e conforme em todas as organizações.

O Regulamento da Inteligência Artificial (IA) entrou em vigor, de forma faseada, em agosto de 2024. Desde dia 2 de fevereiro de 2025, passou a ser aplicável a proibição de um conjunto de práticas de IA e a obrigação de literacia no domínio da IA.

De acordo com o Regulamento, a literacia significa adquirir as competências, o conhecimento e a compreensão que permitem aos fornecedores, aos implementadores e a outras pessoas afetadas, tendo em conta os seus respetivos direitos e obrigações no contexto deste Regulamento, realizar uma implementação informada dos sistemas de IA e tomar consciência das oportunidades e dos riscos colocados pela IA, bem como dos danos que esta pode causar. Os conceitos abordados dependem do contexto e incluem a correta utilização de aspetos técnicos na fase de desenvolvimento, as precauções a adotar durante a sua utilização, a melhor forma de interpretar os resultados gerados e, para aqueles que são afetados, a compreensão de como as decisões assistidas por estas tecnologias podem influenciar as suas vidas.

Assim o cumprimento desta obrigação abrange, entre outros, os seguintes aspetos:

•    Proteção de direitos fundamentais e da segurança e saúde das pessoas;
•    Garantia de controlo legal no contexto da inteligência artificial e da conformidade empresarial;
•    Apoio à tomada de decisões informadas por todas as partes envolvidas nos sistemas de IA;
•    Compreensão da aplicação correta de elementos técnicos durante o desenvolvimento dos sistemas;
•    Implementação de medidas de proteção durante a utilização destas tecnologias;
•    Interpretação adequada dos resultados gerados pelos sistemas;
•    Esclarecimento do impacto das decisões automatizadas sobre os indivíduos afetados;
•    Cumprimento das regulamentações em vigor no âmbito da IA;
•    Promoção de inovação segura e fiável dentro da União Europeia;
•    Sensibilização para benefícios, riscos e salvaguardas, bem como para os direitos e deveres associados ao uso destes sistemas.

Neste contexto a organização deve adotar uma abordagem estruturada para garantir que a literacia em inteligência artificial (IA) seja eficaz e alinhada com as suas necessidades específicas. Para isso, deve:

  • Identificar o papel dos departamentos e suas obrigações no contexto da IA
    • Mapear quais os setores da organização que interagem diretamente ou indiretamente com sistemas de IA;
    • Compreender as exigências legais e regulamentares, em matéria de regulamentação sobre IA aplicáveis a cada departamento;
    • Definir responsabilidades claras para garantir a conformidade com a regulamentação.
  • Avaliar os riscos e impactos dos sistemas de IA utilizados
    • Identificar os diferentes sistemas de IA em operação e analisar os seus potenciais riscos para a organização, os funcionários e os utilizadores finais;
    • Avaliar o nível de autonomia e adaptabilidade dos sistemas, bem como os desafios éticos, legais e de segurança associados;
    • Implementar mecanismos de monitorização para minimizar riscos e garantir o uso responsável da IA.
  • Adaptar a formação e a literacia em IA às funções desempenhadas pelos colaboradores

    • Desenvolver programas de formação ajustados ao nível de envolvimento de cada funcionário com a IA (exemplo: programadores, utilizadores finais e gestores terão necessidades distintas);
    • Criar diretrizes específicas para os profissionais envolvidos no desenvolvimento e na implementação de sistemas de IA;
    • Garantir que os colaboradores que utilizam IA no dia a dia compreendem como interpretar os resultados e tomar decisões informadas;
    • Sensibilizar toda a organização para os direitos, responsabilidades e implicações éticas do uso da IA.

    COMO PODE A TIMESTAMP AJUDAR?

  • Metodologia sistematizada para mapear, analisar e classificar os sistemas de IA da sua organização, identificando pontos críticos relevantes e riscos associados, em alinhamento com o quadro regulamentar;
  • Consultoria técnica e funcional no desenho e implementação de Políticas e Procedimentos, Modelos de Governo, Frameworks de avaliação, implementação e monitorização que permitem suportar o desenvolvimento e uso responsável da IA, promovendo transparência, ética e conformidade contínua;
  • Formação, enquanto empresa Certificada pela DGERT, suportando as organizações na definição e implementação de planos de formação de IA, disponibilização de formação especializada para capacitar as equipas em matéria de IA.

A TIMESTAMP apresenta uma abordagem 360ª à Inteligência Artificial, que inclui as vertentes de Conformidade Regulatória; Consultadoria tecnológica e funcional; e soluções Tecnológicas, suportando a sua empresa ao longo de todo o ciclo de vida dos projetos de IA, incluindo diagnósticos, desenho, desenvolvimento, implementação dos sistemas, até à sua monitorização.

Adequamos a Inteligência Artificial à sua estratégia de negócio, requisitos e necessidades, de forma ética e responsável, garantindo o uso de melhores práticas do setor, melhores tecnologias e alinhamento regulatório.

Partilhe este post

Copy link

Artigos Relacionados

Timestamp

Blog | 11/6/2025

Como se preparar para o Regulamento DORA

Nuno Dias, Managing Partner - Digital Security & Governance na Timestamp, explica-nos como o Regulamento DORA impulsiona uma transformação profunda nas organizações, tornando a resiliência digital num eixo estratégico.

Timestamp

Blog | 16/4/2025

Regulamento da Inteligência Artificial: Orientações da Comissão Europeia sobre Práticas Proibidas

Ana Martins, Managing Director – Compliance, Governance & Sustainability da Timestamp, explica-nos as Orientações sobre as Práticas Proibidas de IA vindas da Comissão Europeia