Saltar para o conteúdo principal
Alexandre Bally
· 12 min de leitura
Partilhar:

O Argumento Ético para Informar as Pessoas Quando a IA Está Envolvida

Se a IA está a moldar a informação que alguém recebe, a influenciar uma decisão que o afeta, ou a substituir uma pessoa com quem esperava estar a lidar — essa pessoa tem o direito de saber?

Conteúdo assistido por IA · Revisto por humanos·Reportar um problema

A Parte Um é uma leitura de cinco minutos. A Parte Dois contém as evidências para quem quiser aprofundar.

Parte Um: O argumento ético para informar as pessoas quando a IA está envolvida

No final de 2025, a McDonald's Países Baixos lançou um anúncio natalício produzido inteiramente com IA generativa. Não o mencionaram. As redes sociais identificaram-no em poucas horas, rotularam-no como "lixo de IA" e a empresa retirou o anúncio em três dias. Pela mesma altura, a Coca-Cola lançou anúncios natalícios gerados por IA que também foram controversos — mas a Coca-Cola foi aberta sobre o papel da IA na sua produção — em comunicados de imprensa, conteúdos dos bastidores e comunicações públicas. A recepção esteve longe de ser universalmente positiva, mas o sentimento foi mensuravelmente melhor. A diferença não foi a qualidade do trabalho criativo. Foi a transparência.

Uma empresa foi frontal sobre como o trabalho foi feito. A outra não. Essa única decisão — divulgar ou não — moldou toda a resposta pública.

Este padrão está a repetir-se em todas as indústrias e levanta uma questão que vai além do marketing ou da conformidade regulamentar: se a IA está a moldar a informação que alguém recebe, a influenciar uma decisão que o afeta, ou a substituir uma pessoa com quem esperava estar a lidar — essa pessoa tem o direito de saber?

A resposta deveria ser simples. Sim, tem.

O fosso entre o que as empresas fazem e o que as pessoas esperam

A investigação sobre este tema é notavelmente consistente. Entre sete e oito em cada dez consumidores dizem querer saber quando a IA está a ser utilizada. Uma grande maioria diz que mudaria para outro fornecedor por causa disso. E os números de confiança na região DACH são particularmente marcantes — apenas cerca de um em cada cinco consumidores alemães diz confiar nas empresas de IA, e aproximadamente a mesma proporção confia na própria IA.

Não se trata de preferências hipotéticas. Quando as empresas são apanhadas a usar IA sem o divulgar, as consequências são tangíveis e desproporcionadas. A percentagem de grandes empresas que divulgam a IA como risco material passou de cerca de uma em dez para quase três quartos em apenas dois anos — um sinal de que os conselhos de administração e os investidores encaram agora o uso não divulgado de IA como uma ameaça real à reputação e à valorização. O custo de ser descoberto é consistentemente pior do que o custo de divulgar antecipadamente. Sempre.

E, no entanto, a divulgação continua a ser a exceção. Entre as grandes empresas europeias, apenas cerca de uma em cada cinco tem uma política formal de IA implementada. O fosso entre o que as pessoas esperam e o que as organizações realmente fazem é enorme — e não se está a fechar com rapidez suficiente.

A explicação habitual é que as empresas estão à espera que a regulamentação lhes diga o que fazer. Os requisitos de transparência do Regulamento Europeu sobre IA só atingem plena aplicabilidade em agosto de 2026. A Alemanha ainda nem sequer designou as suas autoridades nacionais. A Suíça rejeitou explicitamente uma lei abrangente sobre IA em favor de uma abordagem setorial. Portanto, o argumento é: porquê avançar antes de ser necessário?

Porque isto não é realmente sobre regulamentação. É sobre se a sua organização é do tipo que diz a verdade às pessoas sobre como são tomadas as decisões que as afetam.

O que a divulgação realmente significa — e o que não significa

Uma das razões pelas quais as empresas hesitam é que "divulgação de IA" parece significar confessar algo. Não é o caso. Significa ser transparente sobre como a sua organização utiliza tecnologia que afeta as pessoas com quem trabalha — clientes, colaboradores, parceiros.

Há uma distinção importante aqui. Nem tudo precisa de ser divulgado. Correção ortográfica, filtragem de spam, assistência interna à investigação — são operações de retaguarda em que o envolvimento da IA é irrelevante. Ninguém espera uma etiqueta em cada e-mail autocorrigido. Mas quando a IA está a interagir diretamente com um cliente, quando está a influenciar decisões de contratação ou avaliações de crédito, quando está a gerar conteúdo que chega às pessoas sem revisão humana significativa — essas são situações em que a pessoa do lado recetor tem um interesse legítimo em saber.

A investigação oferece, de facto, um enquadramento útil para pensar sobre isto. Resume-se a três perguntas. Primeira, o resultado da IA pode afetar materialmente os direitos, as finanças ou o bem-estar de alguém? Se sim, divulgar. Segunda, uma pessoa razoável esperaria envolvimento humano nesta interação? Se sim, divulgar. Terceira, a descoberta de uso não divulgado de IA causaria mais danos reputacionais do que a divulgação proativa? Se sim — e a resposta é quase sempre sim — divulgar.

O que é interessante é que a investigação também mostra que a forma como se divulga é tão importante como se se divulga. Etiquetas mecânicas despidas — "isto foi gerado por IA" — podem na realidade reduzir a confiança em vez de a construir. Um estudo concluiu que divulgações de uma linha superam consistentemente explicações detalhadas, que causam sobrecarga de informação. Outro estudo concluiu que as etiquetas de IA podem paradoxalmente diminuir a credibilidade de informação verdadeira enquanto aumentam a credibilidade de afirmações falsas.

A lição não é evitar a divulgação. É evitar fazê-la mal. Uma declaração breve e honesta sobre como a IA foi utilizada, acompanhada de clareza sobre a supervisão humana, funciona melhor do que a etiquetagem exaustiva ou o silêncio. A experiência europeia de privacidade com os banners de cookies — onde divulgações legalmente obrigatórias se tornaram cliques rituais sem significado — é um exemplo cautelar do que acontece quando a divulgação é concebida para completude jurídica em vez de compreensão humana.

O teste da primeira página

Há uma experiência mental útil que se aplica a qualquer organização que utilize IA. Se amanhã se tornasse público que a sua empresa usou IA de uma determinada forma sem informar ninguém, ficaria confortável a explicar por que razão não divulgou?

Se a resposta é não, deveria estar a divulgar agora.

Os exemplos continuam a acumular-se. Uma companhia aérea implementou um chatbot que deu a um cliente informação incorreta sobre tarifas de luto — e quando foi confrontada, a empresa tentou argumentar que o chatbot era uma entidade jurídica separada. Uma plataforma de recrutamento com IA rejeitou automaticamente candidatos com base na idade, resolvendo o caso por 365.000 dólares em indemnizações. Consultores de investimento foram multados por alegarem processos baseados em IA que não existiam. Em cada caso, a tecnologia fez aquilo para que foi construída. O que falhou foi a disponibilidade da organização para ser honesta sobre o que estava a fazer — e as consequências foram piores porque a divulgação veio de outra pessoa que não a própria empresa.

O padrão é suficientemente consistente para ser um princípio: as organizações que se metem em problemas com a IA são raramente aquelas que divulgaram em excesso. São aquelas que divulgaram de menos, demasiado tarde.

A divulgação é o início — não o fim

Há a tentação de tratar a divulgação como um problema resolvido depois de se terem acrescentado as etiquetas certas. Informámos. Missão cumprida. Mas a divulgação sem um canal de feedback é um monólogo, não uma conversa. E as pessoas do lado recetor das decisões baseadas em IA sabem a diferença.

Pensem no que acontece quando um cliente recebe uma resposta gerada por IA que está errada — um chatbot que dá preços incorretos, um motor de recomendação que sugere algo irrelevante, uma avaliação automatizada que classifica mal a candidatura. Se a única coisa que fizeram foi divulgar que a IA esteve envolvida, disseram-lhes a quem culpar, mas não o que fazer a respeito. A frustração não é apenas sobre o erro. É sobre a ausência de um caminho óbvio para o corrigir.

Um mecanismo simples de reporte — uma forma de os clientes, colaboradores ou parceiros sinalizarem quando conteúdo ou decisões gerados por IA parecem errados, injustos ou prejudiciais — muda a dinâmica fundamentalmente. Passa-se de "informámos-vos" para "estamos a ouvir". Dá às pessoas agência sobre a tecnologia que as afeta. E dá à organização algo de que precisa desesperadamente: um sinal quando os sistemas de IA estão a falhar de formas que a monitorização interna pode não detetar. As pessoas que experimentam o resultado são frequentemente as primeiras a notar quando algo correu mal.

Isto não precisa de ser elaborado. Um endereço de e-mail dedicado. Um botão de sinalização junto ao conteúdo gerado por IA. Uma linha na própria divulgação: "Esta resposta foi assistida por IA. Se algo não lhe parecer correto, eis como nos pode informar." O que importa não é o mecanismo — é a mensagem por detrás dele. Estão a dizer às pessoas que a sua experiência importa mais do que a eficiência da vossa automação, e que um ser humano analisará o que reportarem.

O Regulamento Europeu sobre IA exige, de facto, algo semelhante para sistemas de alto risco — os utilizadores devem poder compreender, interpretar e, quando necessário, contestar os resultados da IA. Mas esperar que a regulamentação o imponha é perder o essencial. Se acreditam que as pessoas merecem saber quando a IA está envolvida, o passo natural seguinte é dar-lhes voz quando as coisas correm mal.

Como é isto na prática

Para uma PME na região DACH, construir uma prática ética de divulgação não requer um departamento de conformidade ou um comité de ética de IA. Requer uma decisão — tomada pela liderança, comunicada a toda a equipa — sobre o que a vossa organização considera transparência adequada, e um compromisso de ouvir as pessoas que são afetadas.

Essa decisão tem dois caminhos realistas.

Divulgar por princípio. Decidir agora, antes que alguém pergunte e antes que a regulamentação obrigue, quais são os padrões de divulgação da vossa organização. Mapear onde a IA está a ser utilizada — a maioria das empresas que faz isto descobre muito mais ferramentas de IA em operação do que esperava. Um caso documentado encontrou 23 ferramentas de IA numa empresa de 85 pessoas, incluindo 17 contas separadas de ChatGPT. Estabelecer um enquadramento simples e claro: divulgar sempre quando a IA toca nos clientes ou toma decisões consequentes; considerar divulgar quando a IA molda entregas a clientes mesmo com revisão humana; sem necessidade de divulgação para ferramentas internas de produtividade com total supervisão humana. Construir um canal de feedback desde o primeiro dia — dar às pessoas afetadas pela vossa IA uma forma de vos informar quando as coisas correm mal, e garantir que um ser humano analisa o que chega. Comunicar tudo isto às vossas equipas. Torná-lo parte da forma como operam, não uma caixa que se assinala.

Divulgar por prazo. Esperar pela data de aplicação do Regulamento Europeu sobre IA em agosto de 2026. Apressar-se para identificar que IA as vossas equipas estão a usar. Mapear face aos requisitos regulamentares. Construir práticas de divulgação sob pressão temporal, provavelmente com ajuda externa. Acrescentar um mecanismo de reporte porque a regulamentação o exige para sistemas de alto risco. Acabar com algo que é tecnicamente conforme mas que parece exatamente o que é — uma resposta a um prazo, não um compromisso com as pessoas que servem.

O primeiro caminho custa aproximadamente 60 a 80 horas de esforço distribuído ao longo de 90 dias, com base em casos de implementação documentados. Não requer novas contratações. Requer atenção da liderança e um compromisso genuíno com a honestidade para com as pessoas que a vossa organização serve.

O segundo caminho custa mais — em honorários de consultoria, em implementação apressada, e no fosso de credibilidade entre organizações que escolheram ser transparentes e organizações que foram obrigadas a sê-lo.

Porque é que isto importa mais no mercado DACH

Os consumidores alemães estão entre as populações mais céticas em relação à IA na Europa. A confiança nas empresas de IA situa-se em cerca de 21%. A confiança na própria IA é aproximadamente a mesma. Num mercado onde quase nove em cada dez empresas consideram importante o país de origem do seu fornecedor de IA, e onde a esmagadora maioria dessas prefere soluções alemãs, a fiabilidade não é um acessório agradável. É um pré-requisito para fazer negócios.

Este ceticismo é por vezes enquadrado como uma barreira à adoção de IA. É mais corretamente entendido como um filtro de qualidade. Os compradores DACH — sejam consumidores ou equipas de procurement B2B — não rejeitam a IA. Rejeitam a IA em que não podem confiar. E a confiança começa com honestidade sobre o que se está a fazer.

A Áustria já avançou, estabelecendo uma KI-Servicestelle dedicada dentro do seu regulador de telecomunicações no início de 2024 — um dos primeiros organismos operacionais de informação e supervisão de IA na UE — e introduzindo rotulagem obrigatória de IA nos serviços públicos. A Alemanha está a recuperar, com legislação em preparação para designar as autoridades nacionais. A Suíça, embora fora do enquadramento da UE, vincula as suas empresas extraterritorialmente quando vendem sistemas de IA para mercados europeus. A direção regulamentar é inequívoca. Mas a direção ética deveria ter sido clara muito antes de a regulamentação ter sido escrita.

A conclusão

A pergunta que toda a equipa de liderança deveria estar a fazer não é se são legalmente obrigados a divulgar o uso de IA. É se ficariam confortáveis se os seus clientes, os seus colaboradores e os seus parceiros descobrissem por conta própria.

A divulgação não é uma responsabilidade. O silêncio é. E a divulgação sem uma forma de as pessoas responderem não é transparência — é um comunicado. As organizações que transportarão mais confiança para a próxima década são aquelas que disseram a verdade às pessoas e depois lhes deram voz quando as coisas correram mal. Não porque era obrigatório, mas porque era o correto. E num mercado tão sensível à confiança como a região DACH, esse compromisso não é apenas ético. É o alicerce sobre o qual tudo o resto é construído.

Junte-se à discussão

A sua organização divulga quando a IA está envolvida — ou está à espera que a regulação decida por si? Gostaria de ouvir como está a abordar esta questão — junte-se à discussão no LinkedIn.


Tudo na Parte Um é fundamentado em investigação específica. Esta secção apresenta os dados para quem quiser verificar as afirmações, questionar os números, ou levar isto ao conselho de administração com fontes anexas.

Parte Dois: As Evidências

O que os consumidores e os compradores empresariais realmente esperam

A procura por divulgação de IA não é especulativa — é medida, consistente e crescente em todos os principais inquéritos realizados em 2025 e 2026.

O estudo de tendências de consumo de 2026 da Capgemini — que inquiriu 12.000 consumidores em 12 países — concluiu que 76% querem regras claras sobre quando os assistentes de IA podem agir em seu nome [1]. Setenta e um por cento expressaram preocupação sobre como as ferramentas de IA generativa utilizam os seus dados, e dois terços disseram confiar mais na IA quando esta explica o seu raciocínio [1]. Um inquérito da Emplifi a utilizadores frequentes de redes sociais concluiu que 83% querem divulgação quando a IA está a ser usada, com cerca de metade a afirmar que uma etiqueta "alimentado por IA" aumentaria a sua confiança na marca [2].

As consequências de não corresponder a estas expectativas são severas. O inquérito da Relyance AI de dezembro de 2025 concluiu que 82% dos consumidores encaram a perda de controlo sobre os seus dados em sistemas de IA como uma ameaça pessoal grave. Mais criticamente, 84% disseram que tomariam medidas — abandonando ou restringindo a utilização de uma empresa — quando essa empresa não consegue explicar como os seus dados estão a ser usados [3]. Cinquenta e sete por cento disseram que deixariam de usar o produto por completo [3].

As expectativas B2B espelham os dados do consumidor. Investigação recente mostra que 71% dos decisores B2B evitam fornecedores sem informação clara e transparente, e 66% dos compradores B2B utilizam agora ferramentas de IA para pesquisa de fornecedores — o que significa que as vossas práticas de transparência são cada vez mais visíveis para as equipas de procurement antes mesmo de vos contactarem [4]. O Stanford Foundation Model Transparency Index 2025 concluiu que empresas orientadas para B2B como a IBM (com pontuação de 95 em 100) estão a apostar na transparência como diferenciador, mesmo quando a média da indústria se situa em apenas 41 em 100 [4].

O défice de confiança na região DACH — e a oportunidade da divulgação

O mercado DACH amplifica estas dinâmicas. O Nuremberg Institute for Market Decisions (NIM), inquirindo 1.000 respondentes cada nos EUA, Reino Unido e Alemanha, concluiu que apenas 21% dos consumidores alemães confiam nas empresas de IA e nas suas promessas, e apenas 20% confiam na própria IA [5]. Estes estão entre os níveis mais baixos de confiança em qualquer grande mercado europeu.

O inquérito de 2025 da Bitkom a 604 empresas alemãs reforça isto do lado empresarial: 88% consideram importante o país de origem do seu fornecedor de IA, e 93% dessas preferem soluções alemãs [6]. Esta preferência não é puramente sobre soberania de dados — é um indicador de fiabilidade. Num mercado com este nível de ceticismo, a transparência é um pré-requisito competitivo, não um diferenciador.

A investigação de 2025 da Glass Lewis sobre governação corporativa europeia concluiu que apenas 20,7% das grandes empresas europeias tinham políticas formais de IA implementadas, com 61,3% sem qualquer política de IA divulgada [7]. A Suíça liderava com 40% de adoção — notável dada a sua decisão de não prosseguir legislação abrangente sobre IA. O fosso entre as expectativas dos consumidores (mais de 80% querem divulgação) e a preparação empresarial (cerca de 20% têm políticas) representa a maior assimetria de confiança na paisagem tecnológica europeia.

A lição da McDonald's e o paradoxo do design da divulgação

O caso da McDonald's Países Baixos de dezembro de 2025 é um dos pontos de dados mais claros sobre como a não-divulgação sai pela culatra. A empresa lançou um anúncio natalício de 45 segundos gerado por IA sem divulgar o envolvimento da IA. As redes sociais identificaram-no em poucas horas, rotularam-no como "lixo de IA" e a McDonald's retirou o anúncio em três dias [8]. No mesmo período, a Coca-Cola lançou campanhas natalícias geradas por IA que também foram controversas — mas a empresa foi aberta sobre o papel da IA em comunicados de imprensa e comunicações públicas. Os dados de sentimento mostraram uma recepção mensuravelmente mais positiva, com uma análise a registar 61% de sentimento positivo [9].

A diferença não foi a qualidade. Foi a honestidade. Mas a investigação sobre o design da divulgação acrescenta uma nuance importante que impede que isto seja uma história simples de "basta divulgar".

O estudo de 2025 de Schilke e Reimann em Organizational Behavior and Human Decision Processes — através de 13 experiências pré-registadas com mais de 3.000 participantes — identificou o que chamam o "Dilema da Transparência". Os atores que divulgam voluntariamente o uso de IA são inicialmente menos confiáveis do que aqueles que não o fazem, operando através de perceções reduzidas de legitimidade. No entanto — e esta é a conclusão crítica — a exposição por terceiros de uso não divulgado de IA tem um efeito negativo ainda mais forte do que a divulgação voluntária [10]. A implicação não é que as empresas devam evitar a divulgação, mas que a forma como a enquadram determina se constrói ou corrói a confiança.

Um estudo de 2026 sobre divulgação de IA em conteúdo noticioso concluiu que divulgações detalhadas levaram a confiança reduzida por sobrecarga de informação, enquanto divulgações de uma linha não produziram o mesmo efeito negativo — mantiveram níveis de confiança comparáveis à ausência total de divulgação [11]. Um estudo separado publicado no Journal of Science Communication concluiu que as etiquetas de IA podem paradoxalmente diminuir a credibilidade de informação verdadeira enquanto aumentam a credibilidade de afirmações falsas — um "efeito cruzado verdade-falsidade" impulsionado por atitudes negativas em relação à IA [12].

Estas conclusões convergem numa conclusão prática: a divulgação precisa de ser breve, proporcionada e concebida para a compreensão humana. A experiência europeia de privacidade com os banners de cookies — onde divulgações legalmente obrigatórias se tornaram cliques rituais sem significado — é o precedente cautelar. O Enquadramento de Transparência e Divulgação de IA do IAB, de janeiro de 2026, aborda isto com um teste de materialidade: a divulgação é exigida apenas quando a IA "afeta materialmente a autenticidade, identidade ou representação de formas que possam induzir em erro" [13]. Nem tudo precisa de uma etiqueta. Mas as coisas que precisam de uma etiqueta precisam de uma boa.

O panorama jurídico — casos que estabelecem o precedente

Várias ações de execução e decisões judiciais estabeleceram que a não-divulgação do uso de IA acarreta consequências financeiras e jurídicas reais.

Em fevereiro de 2024, o Tribunal de Resolução Civil da Colúmbia Britânica decidiu que a Air Canada era responsável por informação incorreta sobre tarifas de luto fornecida pelo seu chatbot de IA. O argumento da companhia aérea de que o chatbot era uma "entidade jurídica separada" foi rejeitado — o tribunal considerou a empresa totalmente responsável pela informação que as suas ferramentas de IA fornecem aos clientes [14].

A Comissão de Igualdade de Oportunidades de Emprego dos EUA resolveu o seu primeiro caso de discriminação por IA quando o iTutorGroup concordou em pagar 365.000 dólares depois de o seu software de recrutamento com IA ter rejeitado automaticamente candidatos com mais de 55 anos (mulheres) e 60 anos (homens), excluindo mais de 200 candidatos qualificados com base na idade [15]. Em março de 2024, a SEC multou dois consultores de investimento num total combinado de 400.000 dólares por alegarem falsamente processos de investimento baseados em IA — a primeira ação de execução contra "AI washing" da agência [16].

O S&P 500 respondeu. Segundo a The Conference Board e a ESGAUGE, 72% das empresas do S&P 500 divulgam agora pelo menos um risco material de IA nos seus relatórios 10-K, contra apenas 12% em 2023. O risco reputacional é a preocupação número um, citado por 38% das empresas que divulgam [17]. A subida de 12% para 72% em dois anos sinaliza que os conselhos de administração e os investidores encaram agora o uso não divulgado de IA como um risco de governação material.

O calendário regulamentar para a região DACH

O Regulamento Europeu sobre IA (Regulamento 2024/1689) entrou em vigor a 1 de agosto de 2024 com implementação faseada. As práticas de IA proibidas e os requisitos de literacia em IA tornaram-se aplicáveis a 2 de fevereiro de 2025. As obrigações de transparência do Artigo 50 — que exigem que os sistemas de IA que interagem com pessoas informem os utilizadores de que estão a interagir com IA, que o conteúdo gerado por IA seja marcado de forma legível por máquina, e que os deepfakes e textos gerados por IA sobre assuntos de interesse público sejam divulgados — atingem plena aplicabilidade a 2 de agosto de 2026 [18]. As penalizações por incumprimento atingem até 35 milhões de euros ou 7% do volume de negócios anual global para violações de práticas proibidas, com as PME a receberem multas proporcionalmente inferiores [18].

A Áustria estabeleceu a sua KI-Servicestelle dentro do regulador de telecomunicações RTR em janeiro de 2024 — um dos primeiros organismos operacionais de supervisão de IA na UE [19]. O projeto alemão KI-MIG designa a Agência Federal de Redes como autoridade central de vigilância do mercado, embora o país tenha falhado o prazo de designação de agosto de 2025, em parte devido às eleições federais de 2025. A Suíça, a 12 de fevereiro de 2025, rejeitou explicitamente uma lei horizontal abrangente sobre IA em favor de uma abordagem regulamentar setorial, embora as empresas suíças que vendem sistemas de IA para mercados da UE tenham de cumprir o Regulamento Europeu sobre IA extraterritorialmente [20].

Implementação prática — o que realmente é necessário

A preocupação de que a governação de IA é demasiado onerosa para as PME não é apoiada pelos dados de implementação. Um modelo da ResultSense para governação de IA em PME descreve um enquadramento em quatro fases alcançável em 60 a 80 horas ao longo de 90 dias, distribuído pelas equipas de TI, gestão, jurídico e operações sem contratações adicionais [21].

A norma ISO/IEC 42001:2023 — a primeira norma certificável de sistemas de gestão de IA do mundo — fornece uma estrutura formal para organizações que queiram validação externa das suas práticas de governação, abrangendo 38 controlos em 9 objetivos incluindo transparência, gestão de risco e governação de dados [22]. O próprio Regulamento Europeu sobre IA inclui acomodações para PME: acesso prioritário a sandboxes regulamentares gratuitamente, requisitos de documentação simplificados, taxas proporcionais para avaliações de conformidade e canais de comunicação dedicados para conformidade [18].

Os Princípios de IA da OCDE, atualizados em maio de 2024, referem que "a divulgação deve ser feita com proporção à importância da interação" — reconhecendo explicitamente que a crescente ubiquidade da IA pode influenciar a viabilidade da divulgação em alguns casos [23]. Esta abordagem de princípio de proporcionalidade alinha-se com o enquadramento baseado na materialidade: divulgar sempre quando a IA afeta as pessoas materialmente, considerar divulgar quando molda entregas, sem necessidade de etiquetas em ferramentas de retaguarda rotineiras.

Referências

RefSourcePublishedUtilização
1Capgemini — What Matters to Today's Consumer 2026January 202676% querem regras claras para IA, 71% preocupados com uso de dados, dois terços confiam mais na IA com explicações
2Emplifi — AI in Social Media 2025: What Consumers Want202583% querem divulgação de IA, ~50% dizem que etiqueta "alimentado por IA" aumenta confiança
3Relyance AI — AI Data Ultimatum Consumer SurveyDecember 202582% encaram perda de controlo de dados como ameaça grave, 84% abandonariam ou restringiriam empresas por opacidade da IA
4Stanford HAI — Foundation Model Transparency Index 2025December 2025IBM pontua 95/100, média da indústria 41/100; transparência B2B como diferenciador
5NIM — Transparency Without Trust202521% dos consumidores alemães confiam nas empresas de IA, 20% confiam na própria IA
6Bitkom — Breakthrough in Artificial Intelligence 2025202588% das empresas alemãs consideram importante o país de origem do fornecedor de IA, 93% preferem soluções alemãs
7Glass Lewis — Board AI Policies and Oversight in Europe 2025202520,7% das grandes empresas europeias têm políticas formais de IA; Suíça lidera com 40%
8NBC News — McDonald's AI-generated Christmas advert pulled after backlashDecember 2025Anúncio de IA da McDonald's Países Baixos retirado em três dias
9Decision Marketing — Coke AI ad triggers mass debate but most still love it2025Anúncios natalícios de IA da Coca-Cola receberam 61% de sentimento positivo com comunicação aberta sobre IA
10Schilke & Reimann — The Transparency Dilemma: How AI Disclosure Erodes Trust, OBHDPMay 202513 experiências, 3.000+ participantes: divulgação voluntária reduz confiança, mas exposição por terceiros reduz ainda mais
11Full Disclosure, Less Trust? AI Disclosure in News WritingJanuary 2026Divulgações detalhadas de IA reduzem confiança; divulgações de uma linha mantêm níveis de confiança
12Lin — Visible sources and invisible risks, JCOM2026Etiquetas de IA diminuem credibilidade de informação verdadeira, aumentam credibilidade de afirmações falsas
13IAB — AI Transparency and Disclosure FrameworkJanuary 2026Teste de materialidade: divulgação exigida quando IA afeta materialmente autenticidade, identidade ou representação
14ABA — BC Tribunal Confirms Companies Liable for AI Chatbot InformationFebruary 2024Air Canada responsável por desinformação do chatbot; defesa de "entidade jurídica separada" rejeitada
15EEOC — iTutorGroup SettlementAugust 2023Acordo de 365.000 dólares por discriminação etária por IA no recrutamento; 200+ candidatos rejeitados
16SEC — AI Washing Enforcement ActionMarch 2024Multas combinadas de 400.000 dólares por alegarem falsamente processos de investimento baseados em IA
17Fortune / Conference Board — S&P 500 AI Risk DisclosureOctober 202572% do S&P 500 divulgam risco material de IA (contra 12% em 2023); risco reputacional citado por 38%
18EU AI Act — Article 50: Transparency ObligationsOngoingRequisitos de transparência do Artigo 50 aplicáveis a 2 de agosto de 2026; enquadramento de penalizações
19RTR — KI-ServicestelleJanuary 2024Centro de Serviços de IA da Áustria estabelecido em janeiro de 2024 dentro da RTR
20Swiss Federal Council — Sector-Specific AI Regulatory ApproachFebruary 2025Suíça rejeitou lei abrangente sobre IA a 12 de fevereiro de 2025; abordagem setorial adotada
21ResultSense — Shadow AI Governance Framework for SMEsOctober 2025Implementação de 60–80 horas ao longo de 90 dias; modelo de governação em quatro fases para PME
22ISO — ISO/IEC 42001:2023 AI Management SystemsDecember 2023Primeira norma certificável de sistemas de gestão de IA do mundo; 38 controlos em 9 objetivos
23OECD — AI PrinciplesMay 2024 (updated)Divulgação proporcionada à importância da interação; reconhece restrições de viabilidade

Este artigo faz parte da série Strategic Insights em alexandrebally.ch, onde exploramos as realidades operacionais por detrás da transformação empresarial e da adoção de IA para PME na região DACH.

Os comentários ainda não estão configurados.