|
IA: As regras do jogo estão mudando? 12/03/2025
Artigo original publicado em 29/01/2025 por José C. NordmannClique aqui para ler o original
Impacto nos mercados de ações
Liang Wenfeng (40, nascido em 1985) é um engenheiro e empresário chinês que estudou na incubadora de startups na China, a cidade de Hangzhou, e é cofundador do fundo de investimento quantitativo de alto risco High-Flyer, bem como fundador e CEO da DeepSeek, uma empresa de inteligência artificial, cujo surgimento está desencadeando um terremoto no mercado de ações de Wall Street.
O índice Nasdaq-100 que agrupa as 100 maiores empresas não financeiras listadas na bolsa de valores Nasdaq caiu 2,19% na segunda-feira 27/01/2025, o que representa a maior queda em seis semanas, com perdas no valor de quase um trilhão de dólares. O preço das ações da fabricante de chips U.S. AI GPU NVDIA Corp. caiu entre 13% e 17%, registrando seu pior dia desde março de 2020. Diferentes analistas estimam as perdas da NVIDIA entre US$ 400 bilhões e US$ 600 bilhões.
Da mesma forma, as ações de tecnologia da Microsoft, patrocinadora do ChatGPT, Meta Platforms e Alphabet, controladora do Google, registraram quedas de 3,8%, 0,8% e 3,4%, respetivamente. Em outros lugares, a bolsa de valores Nikkei do Japão caiu 1%, enquanto o investidor japonês de startups de IA SoftBank Group despencou mais de 8%.
Enquanto isso, as ações chinesas relacionadas à IA tiveram um aumento. As ações de empresas de tecnologia ligadas à DeepSeek subiram, com a Iflytek Co. registrando um aumento de 1,73%, e a Merit Interactive Co. superando seus limites diários, com um aumento de mais de 20%.
O analista Kaith Lerner, do banco norte-americano Truist Bank, explicou que a popularidade do modelo DeepSeek "está levando os investidores a questionar a liderança das empresas americanas, quanto estão gastando e se esses gastos se traduzirão em lucros".
Nesse sentido, Charu Chanana, estrategista e chefe de investimentos do banco de investimento dinamarquês Saxo Bank, diz que o crescimento da startup asiática "pode despertar um interesse renovado dos investidores em empresas chinesas de IA subvalorizadas, fornecendo uma história de crescimento alternativa".
As peculiaridades do DeepSeek
DeepSeek é um tipo de LLM conhecido como Modelo de Raciocínio, que, no contexto da inteligência artificial, é um sistema computacional projetado para simular o processo de pensamento humano, imitando a capacidade das pessoas de analisar informações, resolver problemas, tomar decisões e chegar a conclusões lógicas.
Os modelos de raciocínio são treinados em grandes quantidades de dados, o que lhes permite identificar padrões, relacionamentos e conexões entre diferentes informações. Uma vez treinados, eles podem inferir conclusões que não estavam explícitas nos dados e premissas, resolver problemas complexos aplicando regras lógicas e analisando diferentes cenários, tomar decisões selecionando a opção que consideram mais apropriada de acordo com os critérios estabelecidos e gerar explicações justificando suas conclusões e decisões de uma forma que seja compreensível para os humanos.
Modelos de raciocínio como o DeepSeek têm uma ampla gama de aplicações, incluindo Diagnóstico Médico, ajudando os médicos a identificar doenças e recomendar tratamentos, Assistentes Virtuais, interagindo com os usuários de forma natural e respondendo às suas perguntas, Sistemas de Recomendação, sugerindo produtos ou serviços personalizados aos usuários, Veículos autônomos, tomando decisões em tempo real para dirigir com segurança, e Pesquisa científica, ajudando os cientistas a analisar grandes quantidades de dados para descobrir novos insights.
Existem vários tipos de modelos de raciocínio, cada um com suas características e aplicações específicas, como os Modelos Baseados em Regras, que utilizam um conjunto de regras predefinidas que o modelo aplica para chegar a uma conclusão, os Modelos Baseados em Casos, que comparam um novo problema com casos semelhantes já resolvidos para encontrar a melhor solução, Redes Neurais Artificiais, que simulam o funcionamento do cérebro humano e aprendem por meio de exemplos, e Modelos de Linguagem, que se especializam em processamento de linguagem natural e podem realizar tarefas como tradução, geração de texto e resposta a perguntas.
O DeepSeek não se enquadra estritamente em uma única categoria de modelos de raciocínio. Embora compartilhe características de vários deles, sua abordagem é bastante híbrida e aproveita as vantagens de diferentes técnicas:
Elementos de redes neurais artificiais: O DeepSeek, como muitos modelos modernos de IA, usa redes neurais para processar informações e aprender padrões. Isso permite que ele execute tarefas como processamento de linguagem natural e geração de texto com muita eficiência.
Recursos de raciocínio semelhantes aos modelos baseados em regras: O DeepSeek provou ser capaz de seguir cadeias de pensamento e resolver problemas que exigem uma certa lógica, que é uma característica típica dos modelos baseados em regras. No entanto, não segue apenas regras rigidamente predefinidas.
Aprendizado baseado em dados: Como os modelos baseados em casos, o DeepSeek aprende com grandes quantidades de dados. No entanto, ele não se limita a comparar novos casos com casos armazenados, mas é capaz de generalizar e aplicar seus conhecimentos a novas situações.
Processamento de linguagem natural: DeepSeek é um modelo de linguagem, o que significa que foi projetado para entender e gerar texto. No entanto, vai além da simples compreensão da linguagem, pois é capaz de realizar tarefas que exigem um nível mais alto de raciocínio.
O DeepSeek é um modelo de IA de última geração que combina o melhor de vários mundos. Sua capacidade de aprender, raciocinar e gerar texto o torna uma ferramenta muito versátil e com grande potencial em diversas aplicações.
Kush Varshney, da IBM , disse: "O que é realmente impressionante é a capacidade de raciocínio dos modelos da DeepSeek". Os modelos de raciocínio essencialmente se verificam a si mesmos, representando um tipo de "metacognição" ou "pensar sobre o pensamento", diz Varshney. “Agora estamos começando a colocar sabedoria nesses modelos, e isso é um grande passo."
Os modelos de raciocínio se tornaram o tema quente da conversa em setembro passado, quando a OpenAI apresentou uma prévia de seu modelo de raciocínio o1 (precisamente, os benchmarks apresentados pela DeepSeek o comparam com o OpenAI o1). Ao contrário dos modelos de IA anteriores, que produziam uma resposta sem explicar o raciocínio, eles resolvem problemas complexos dividindo-os em etapas. Os modelos de raciocínio podem levar alguns segundos ou minutos a mais para responder porque refletem em sua análise passo a passo ou em uma "cadeia de pensamento".
Reações preliminares dos concorrentes
A irrupção estrondosa da DeepSeek no mercado imediatamente produziu reações entre cautelosas e venenosas, especialmente de seus concorrentes americanos, que se consideravam os líderes indiscutíveis da indústria de IA.
Vários porta-vozes da IBM foram rápidos em mencionar que os benchmarks que medem o desempenho dos LLMs são indicadores importantes, mas que é necessário levar em consideração outros aspetos, como a facilidade de integração com outros aplicativos, que eles tenham funcionalidades de governança e melhores práticas e uma série de funcionalidades de ponta a ponta adicionais e complementares ao fato de ter bom desempenho com recursos computacionais escassos.
Talvez uma das reações mais "venenosas" tenha sido a acusação de que o DeepSeek usa a Destilação de Conhecimento para replicar modelos LLM maiores, como o GPT. A Destilação de Conhecimento é uma técnica na qual um modelo de IA menor (o "aluno") aprende o modo de raciocínio e consegue imitar as respostas de um modelo maior e mais complexo (o "professor"). Algo como que o modelo menor "aprenda com um especialista".
Existem várias razões pelas quais uma empresa como a DeepSeek poderia querer usar a Destilação de Conhecimento, como:
· Redução de custos: Grandes LLMs exigem muitos recursos computacionais para treinar e executar. Ao usar a Destilação de Conhecimento, o DeepSeek pode criar um modelo menor e mais eficiente que requer menos recursos.
Desenvolvimento acelerado: Em vez de treinar um modelo do zero, o DeepSeek poderia aproveitar o conhecimento pré-existente de um modelo maior.
Personalização: O DeepSeek poderia adaptar o modelo do aluno a necessidades específicas, ajustando-o para tarefas específicas ou para um domínio de conhecimento específico.
Embora esta seja uma "acusação" muito séria, por enquanto não foi além dos comentários feitos por porta-vozes das Big Tech em entrevistas e podcasts, mas se for comprovado que o DeepSeek usou a Destilação do Conhecimento de forma inadequada, isso pode ter várias consequências, como violação de direitos autorais, concorrência desleal e preocupações éticas e de marketing com a transparência dos modelos de IA. Independentemente das pequenas chances de sucesso com o fornecimento de evidências e provas, essa possível acusação contra o DeepSeek pode gerar um debate interessante sobre o uso ético da inteligência artificial e da propriedade intelectual.
Por que todo esse barulho?
O que aconteceu com o surgimento do DeepSeek não parece ser um fenômeno isolado de uma única startup chinesa, mas pode estar colocando em questão a predominância da Big Tech dos Estados Unidos, na arena da IA, nada menos. Além do DeepSeek, várias empresas chinesas de IA, grandes e pequenas, lançaram recentemente novos e interessantes modelos de linguagem de código aberto que podem competir com os melhores da OpenAI, Anthropic e Google.
A Byte Dance, gigante chinesa de tecnologia proprietária do TikTok, anunciou recentemente seu próprio agente de raciocínio, UI-TARS, que afirma superar o GPT-4o da OpenAI, o Claude da Anthropic e o Gemini do Google em certos benchmarks. O agente ByteDance pode ler interfaces gráficas, raciocinar e tomar medidas passo a passo autônomas.
No verão passado, a empresa chinesa Kuaishou revelou uma ferramenta de geração de vídeo que era como o Sora da OpenAI, mas disponível ao público desde o início. O Sora foi revelado em fevereiro de 2024, mas só foi totalmente lançado em dezembro e, mesmo assim, apenas aqueles com uma assinatura do ChatGPT Pro conseguiram ter acesso a todas as suas funcionalidades.
Os desenvolvedores do Hugging Face também adquiriram novos modelos de código aberto dos gigantes chineses de tecnologia Tencent e Alibaba. Embora a Meta tenha aberto o código para seus modelos Llama, tanto a OpenAI quanto o Google seguiram uma abordagem predominantemente de código fechado para o desenvolvimento de seus modelos.
Com startups a gigantes estabelecidos, as empresas chinesas de IA parecem estar preenchendo a lacuna com seus rivais dos EUA, em grande parte graças à sua disposição de abrir o código ou compartilhar o código de software subjacente com outras empresas e desenvolvedores de software.
Além da vantagem do código aberto, os engenheiros da DeepSeek também usaram apenas uma fração dos chips altamente especializados da NVIDIA usados por seus concorrentes nos EUA para treinar seus sistemas. Os engenheiros da DeepSeek, por exemplo, disseram que precisavam apenas de 2.000 GPUs (Unidades de Processamento Gráfico), ou chips, para treinar seu modelo DeepSeek-V3, de acordo com um artigo de pesquisa que publicaram com o lançamento do modelo. Por outro lado, em uma teleconferência de resultados da Meta em outubro passado, o CEO Mark Zuckerberg disse que a empresa estava treinando seu mais recente modelo Llama 4 de código aberto em um grupo de computadores com mais de 100.000 chips.
"O DeepSeek conseguiu proliferar alguns modelos bastante poderosos em toda a comunidade", diz Abraham Daniels, diretor sênior de produtos técnicos do modelo Granite da IBM. O DeepSeek-R1 é oferecido no Hugging Face sob uma licença do MIT que permite o uso comercial irrestrito. "O DeepSeek pode realmente acelerar a democratização da IA", diz Daniels.
Postagens individuais no LinkedIn promovendo o uso do DeepSeek em Watson.ai proliferaram recentemente, demonstrando flexibilidade inteligente dos funcionários da IBM, consistente com sua defesa de soluções de IA de ponta a ponta e responsáveis, graças aos recursos de governança distintos do Watson.ai.
Temos certeza de que nos próximos dias, semanas e meses veremos muitas atualizações sobre este tópico e compartilharemos nossas análises e insights com nossos valiosos assinantes.
José C. Nordmann
Membro do Conselho Mundial para um Planeta Mais Seguro
Membro de ACFE (Associação de Examinadores de Fraude Certificados)
Membro do Conselho Consultivo Global do Grupo i2
Diretor de Conformidade (Quanam)
PME em Transformação Digital
Membro da AUC (Associação Uruguaia de Compliance)
Membro Associado da WCA (World Compliance Association)
Membro do CUGO (Círculo Uruguaio para a Melhor Governança das Organizações)
O índice Nasdaq-100 que agrupa as 100 maiores empresas não financeiras listadas na bolsa de valores Nasdaq caiu 2,19% na segunda-feira 27/01/2025, o que representa a maior queda em seis semanas, com perdas no valor de quase um trilhão de dólares. O preço das ações da fabricante de chips U.S. AI GPU NVDIA Corp. caiu entre 13% e 17%, registrando seu pior dia desde março de 2020. Diferentes analistas estimam as perdas da NVIDIA entre US$ 400 bilhões e US$ 600 bilhões.
Da mesma forma, as ações de tecnologia da Microsoft, patrocinadora do ChatGPT, Meta Platforms e Alphabet, controladora do Google, registraram quedas de 3,8%, 0,8% e 3,4%, respetivamente. Em outros lugares, a bolsa de valores Nikkei do Japão caiu 1%, enquanto o investidor japonês de startups de IA SoftBank Group despencou mais de 8%.
Enquanto isso, as ações chinesas relacionadas à IA tiveram um aumento. As ações de empresas de tecnologia ligadas à DeepSeek subiram, com a Iflytek Co. registrando um aumento de 1,73%, e a Merit Interactive Co. superando seus limites diários, com um aumento de mais de 20%.
O analista Kaith Lerner, do banco norte-americano Truist Bank, explicou que a popularidade do modelo DeepSeek "está levando os investidores a questionar a liderança das empresas americanas, quanto estão gastando e se esses gastos se traduzirão em lucros".
Nesse sentido, Charu Chanana, estrategista e chefe de investimentos do banco de investimento dinamarquês Saxo Bank, diz que o crescimento da startup asiática "pode despertar um interesse renovado dos investidores em empresas chinesas de IA subvalorizadas, fornecendo uma história de crescimento alternativa".
As peculiaridades do DeepSeek
DeepSeek é um tipo de LLM conhecido como Modelo de Raciocínio, que, no contexto da inteligência artificial, é um sistema computacional projetado para simular o processo de pensamento humano, imitando a capacidade das pessoas de analisar informações, resolver problemas, tomar decisões e chegar a conclusões lógicas.
Os modelos de raciocínio são treinados em grandes quantidades de dados, o que lhes permite identificar padrões, relacionamentos e conexões entre diferentes informações. Uma vez treinados, eles podem inferir conclusões que não estavam explícitas nos dados e premissas, resolver problemas complexos aplicando regras lógicas e analisando diferentes cenários, tomar decisões selecionando a opção que consideram mais apropriada de acordo com os critérios estabelecidos e gerar explicações justificando suas conclusões e decisões de uma forma que seja compreensível para os humanos.
Modelos de raciocínio como o DeepSeek têm uma ampla gama de aplicações, incluindo Diagnóstico Médico, ajudando os médicos a identificar doenças e recomendar tratamentos, Assistentes Virtuais, interagindo com os usuários de forma natural e respondendo às suas perguntas, Sistemas de Recomendação, sugerindo produtos ou serviços personalizados aos usuários, Veículos autônomos, tomando decisões em tempo real para dirigir com segurança, e Pesquisa científica, ajudando os cientistas a analisar grandes quantidades de dados para descobrir novos insights.
Existem vários tipos de modelos de raciocínio, cada um com suas características e aplicações específicas, como os Modelos Baseados em Regras, que utilizam um conjunto de regras predefinidas que o modelo aplica para chegar a uma conclusão, os Modelos Baseados em Casos, que comparam um novo problema com casos semelhantes já resolvidos para encontrar a melhor solução, Redes Neurais Artificiais, que simulam o funcionamento do cérebro humano e aprendem por meio de exemplos, e Modelos de Linguagem, que se especializam em processamento de linguagem natural e podem realizar tarefas como tradução, geração de texto e resposta a perguntas.
O DeepSeek não se enquadra estritamente em uma única categoria de modelos de raciocínio. Embora compartilhe características de vários deles, sua abordagem é bastante híbrida e aproveita as vantagens de diferentes técnicas:
Elementos de redes neurais artificiais: O DeepSeek, como muitos modelos modernos de IA, usa redes neurais para processar informações e aprender padrões. Isso permite que ele execute tarefas como processamento de linguagem natural e geração de texto com muita eficiência.
Recursos de raciocínio semelhantes aos modelos baseados em regras: O DeepSeek provou ser capaz de seguir cadeias de pensamento e resolver problemas que exigem uma certa lógica, que é uma característica típica dos modelos baseados em regras. No entanto, não segue apenas regras rigidamente predefinidas.
Aprendizado baseado em dados: Como os modelos baseados em casos, o DeepSeek aprende com grandes quantidades de dados. No entanto, ele não se limita a comparar novos casos com casos armazenados, mas é capaz de generalizar e aplicar seus conhecimentos a novas situações.
Processamento de linguagem natural: DeepSeek é um modelo de linguagem, o que significa que foi projetado para entender e gerar texto. No entanto, vai além da simples compreensão da linguagem, pois é capaz de realizar tarefas que exigem um nível mais alto de raciocínio.
O DeepSeek é um modelo de IA de última geração que combina o melhor de vários mundos. Sua capacidade de aprender, raciocinar e gerar texto o torna uma ferramenta muito versátil e com grande potencial em diversas aplicações.
Kush Varshney, da IBM , disse: "O que é realmente impressionante é a capacidade de raciocínio dos modelos da DeepSeek". Os modelos de raciocínio essencialmente se verificam a si mesmos, representando um tipo de "metacognição" ou "pensar sobre o pensamento", diz Varshney. “Agora estamos começando a colocar sabedoria nesses modelos, e isso é um grande passo."
Os modelos de raciocínio se tornaram o tema quente da conversa em setembro passado, quando a OpenAI apresentou uma prévia de seu modelo de raciocínio o1 (precisamente, os benchmarks apresentados pela DeepSeek o comparam com o OpenAI o1). Ao contrário dos modelos de IA anteriores, que produziam uma resposta sem explicar o raciocínio, eles resolvem problemas complexos dividindo-os em etapas. Os modelos de raciocínio podem levar alguns segundos ou minutos a mais para responder porque refletem em sua análise passo a passo ou em uma "cadeia de pensamento".
Reações preliminares dos concorrentes
A irrupção estrondosa da DeepSeek no mercado imediatamente produziu reações entre cautelosas e venenosas, especialmente de seus concorrentes americanos, que se consideravam os líderes indiscutíveis da indústria de IA.
Vários porta-vozes da IBM foram rápidos em mencionar que os benchmarks que medem o desempenho dos LLMs são indicadores importantes, mas que é necessário levar em consideração outros aspetos, como a facilidade de integração com outros aplicativos, que eles tenham funcionalidades de governança e melhores práticas e uma série de funcionalidades de ponta a ponta adicionais e complementares ao fato de ter bom desempenho com recursos computacionais escassos.
Talvez uma das reações mais "venenosas" tenha sido a acusação de que o DeepSeek usa a Destilação de Conhecimento para replicar modelos LLM maiores, como o GPT. A Destilação de Conhecimento é uma técnica na qual um modelo de IA menor (o "aluno") aprende o modo de raciocínio e consegue imitar as respostas de um modelo maior e mais complexo (o "professor"). Algo como que o modelo menor "aprenda com um especialista".
Existem várias razões pelas quais uma empresa como a DeepSeek poderia querer usar a Destilação de Conhecimento, como:
· Redução de custos: Grandes LLMs exigem muitos recursos computacionais para treinar e executar. Ao usar a Destilação de Conhecimento, o DeepSeek pode criar um modelo menor e mais eficiente que requer menos recursos.
Desenvolvimento acelerado: Em vez de treinar um modelo do zero, o DeepSeek poderia aproveitar o conhecimento pré-existente de um modelo maior.
Personalização: O DeepSeek poderia adaptar o modelo do aluno a necessidades específicas, ajustando-o para tarefas específicas ou para um domínio de conhecimento específico.
Embora esta seja uma "acusação" muito séria, por enquanto não foi além dos comentários feitos por porta-vozes das Big Tech em entrevistas e podcasts, mas se for comprovado que o DeepSeek usou a Destilação do Conhecimento de forma inadequada, isso pode ter várias consequências, como violação de direitos autorais, concorrência desleal e preocupações éticas e de marketing com a transparência dos modelos de IA. Independentemente das pequenas chances de sucesso com o fornecimento de evidências e provas, essa possível acusação contra o DeepSeek pode gerar um debate interessante sobre o uso ético da inteligência artificial e da propriedade intelectual.
Por que todo esse barulho?
O que aconteceu com o surgimento do DeepSeek não parece ser um fenômeno isolado de uma única startup chinesa, mas pode estar colocando em questão a predominância da Big Tech dos Estados Unidos, na arena da IA, nada menos. Além do DeepSeek, várias empresas chinesas de IA, grandes e pequenas, lançaram recentemente novos e interessantes modelos de linguagem de código aberto que podem competir com os melhores da OpenAI, Anthropic e Google.
A Byte Dance, gigante chinesa de tecnologia proprietária do TikTok, anunciou recentemente seu próprio agente de raciocínio, UI-TARS, que afirma superar o GPT-4o da OpenAI, o Claude da Anthropic e o Gemini do Google em certos benchmarks. O agente ByteDance pode ler interfaces gráficas, raciocinar e tomar medidas passo a passo autônomas.
No verão passado, a empresa chinesa Kuaishou revelou uma ferramenta de geração de vídeo que era como o Sora da OpenAI, mas disponível ao público desde o início. O Sora foi revelado em fevereiro de 2024, mas só foi totalmente lançado em dezembro e, mesmo assim, apenas aqueles com uma assinatura do ChatGPT Pro conseguiram ter acesso a todas as suas funcionalidades.
Os desenvolvedores do Hugging Face também adquiriram novos modelos de código aberto dos gigantes chineses de tecnologia Tencent e Alibaba. Embora a Meta tenha aberto o código para seus modelos Llama, tanto a OpenAI quanto o Google seguiram uma abordagem predominantemente de código fechado para o desenvolvimento de seus modelos.
Com startups a gigantes estabelecidos, as empresas chinesas de IA parecem estar preenchendo a lacuna com seus rivais dos EUA, em grande parte graças à sua disposição de abrir o código ou compartilhar o código de software subjacente com outras empresas e desenvolvedores de software.
Além da vantagem do código aberto, os engenheiros da DeepSeek também usaram apenas uma fração dos chips altamente especializados da NVIDIA usados por seus concorrentes nos EUA para treinar seus sistemas. Os engenheiros da DeepSeek, por exemplo, disseram que precisavam apenas de 2.000 GPUs (Unidades de Processamento Gráfico), ou chips, para treinar seu modelo DeepSeek-V3, de acordo com um artigo de pesquisa que publicaram com o lançamento do modelo. Por outro lado, em uma teleconferência de resultados da Meta em outubro passado, o CEO Mark Zuckerberg disse que a empresa estava treinando seu mais recente modelo Llama 4 de código aberto em um grupo de computadores com mais de 100.000 chips.
"O DeepSeek conseguiu proliferar alguns modelos bastante poderosos em toda a comunidade", diz Abraham Daniels, diretor sênior de produtos técnicos do modelo Granite da IBM. O DeepSeek-R1 é oferecido no Hugging Face sob uma licença do MIT que permite o uso comercial irrestrito. "O DeepSeek pode realmente acelerar a democratização da IA", diz Daniels.
Postagens individuais no LinkedIn promovendo o uso do DeepSeek em Watson.ai proliferaram recentemente, demonstrando flexibilidade inteligente dos funcionários da IBM, consistente com sua defesa de soluções de IA de ponta a ponta e responsáveis, graças aos recursos de governança distintos do Watson.ai.
Temos certeza de que nos próximos dias, semanas e meses veremos muitas atualizações sobre este tópico e compartilharemos nossas análises e insights com nossos valiosos assinantes.
José C. Nordmann
Membro do Conselho Mundial para um Planeta Mais Seguro
Membro de ACFE (Associação de Examinadores de Fraude Certificados)
Membro do Conselho Consultivo Global do Grupo i2
Diretor de Conformidade (Quanam)
PME em Transformação Digital
Membro da AUC (Associação Uruguaia de Compliance)
Membro Associado da WCA (World Compliance Association)
Membro do CUGO (Círculo Uruguaio para a Melhor Governança das Organizações)
Comentários
Postar um comentário