A implementação, pela Knowledge Inside, de soluções de low/no code utilizando a Microsoft Power Platform e o inovador Copilot, permite-nos observar atentamente o ecossistema de IA e acompanhar de perto o seu impacto transformador em diversos setores. Um exemplo recente é a emergência da DeepSeek, uma startup chinesa de IA que não só abalou os mercados de ações, mas também iniciou um debate profundo sobre o futuro, a eficiência e as considerações éticas da IA.
O Fenómeno DeepSeek
A DeepSeek surgiu inesperadamente, alegando ter treinado o seu modelo de linguagem com uma fração dos recursos utilizados por gigantes como a OpenAI. Esta eficiência, se comprovada, poderia redefinir a economia do desenvolvimento de IA. Por um lado, democratiza a IA, potencialmente reduzindo barreiras para players menores ou regiões com recursos limitados. Por outro, levanta questões sobre a qualidade, escalabilidade e, acima de tudo, a segurança desses modelos.
A operação da DeepSeek a partir de servidores na China introduz uma camada de complexidade não apenas em termos de desempenho, mas também na privacidade e segurança dos dados. Numa era em que os dados são o novo petróleo, o controlo destes dados por qualquer governo, especialmente um com um histórico de governança rigorosa da internet, é um sinal de alerta para empresas focadas em segurança como a nossa. As implicações de processar dados sensíveis de negócios ou pessoais através de servidores chineses não podem ser subestimadas, especialmente para empresas que operam em regiões como a Europa, onde o cumprimento do GDPR é inegociável.
Reação do Mercado
A resposta do mercado à DeepSeek foi reveladora – uma venda acentuada em ações de tecnologia, particularmente aquelas ligadas à infraestrutura de IA como a Nvidia. Esta reação sublinha a fragilidade da confiança do investidor na trajetória atual da IA, mas também destaca uma oportunidade. Alex Karp, CEO da Palantir, uma empresa que admiro pela sua utilização estratégica da IA em ambientes seguros, enfatizou frequentemente que o verdadeiro valor não está no modelo de IA em si, mas em como é integrado nos fluxos de trabalho operacionais. Esta perspetiva sugere que o pânico em torno da DeepSeek pode ser exagerado se focarmos na aplicação em vez de apenas nas capacidades do modelo.
Satya Nadella, CEO da Microsoft, trouxe uma perspetiva interessante para a discussão. Ele referiu-se ao paradoxo de Jevons, sugerindo que, à medida que a IA se torna mais eficiente e acessível, o seu uso vai disparar, tornando-a uma commodity indispensável. O reconhecimento de Nadella da DeepSeek como um modelo open-source impressionante com eficiência de computação foi notável. Ele defendeu levar os desenvolvimentos da China "muito, muito a sério", destacando um equilíbrio entre reconhecer a inovação e manter a vigilância sobre questões de segurança e ética.
As preocupações do CEO da Microsoft estão alinhadas com a nossa abordagem na Knowledge Inside, onde vemos o potencial nestas inovações, mas enfatizamos a importância da integração segura e em conformidade nas práticas empresariais. A eficiência da DeepSeek no treino de modelos de IA, a ser comprovada, aponta para um futuro onde o desenvolvimento de IA se torna mais acessível. No entanto, a eficiência não deve vir à custa da segurança ou das considerações éticas.
Olhando para o Futuro
Ao navegar por esta nova paisagem de IA, a saga da DeepSeek serve como um lembrete de que, enquanto a tecnologia avança rapidamente, os princípios de segurança, ética e aplicação estratégica não devem ser deixados para trás. Na Knowledge Inside, estamos comprometidos em aproveitar a IA de uma forma que se alinhe com estes princípios, garantindo que os nossos clientes em Portugal e além possam beneficiar do potencial da IA sem comprometer valores essenciais.
Em conclusão, enquanto a DeepSeek pode desafiar a ordem estabelecida, para nós no setor tecnológico, é um apelo para inovar de forma responsável. O futuro da IA não é apenas sobre quem pode construir o modelo mais sofisticado pelo menor custo, mas sobre como podemos usar esta tecnologia para melhorar a tomada de decisões humanas, a segurança e os padrões éticos num mundo cada vez mais conectado.