Klaudia Dussa-Zieger
A Dra. Klaudia Dussa-Zieger é líder de equipa de consultoria na Imbus e uma reconhecida especialista na área de testes de software. É especializada em gestão de testes, melhoria contínua de processos de teste e testes de e com Inteligência Artificial (IA).
Com uma forte paixão por testes e qualidade, participa em projetos com clientes há mais de 25 anos. É formadora certificada ISTQB® nos níveis Foundation e Advanced Level e, durante vários anos, lecionou testes de software na Universidade de Erlangen-Nuremberg. Além disso, é palestrante frequente em conferências sobre temas de testes que lhe são próximos. A Dra. Dussa-Zieger também contribui ativamente para o trabalho de estandardização: desde março de 2009, é presidente do grupo de trabalho DIN “System and Software Engineering”, incluindo a ISO/IEC/IEEE 29119. É membro do German Testing Board (GTB) há mais de dez anos e atualmente exerce o cargo de vice-presidente.
Além disso, é Presidente do ISTQB® (International Software Testing Qualifications Board) e lidera a AI Taskforce, que aborda os desafios e o potencial da IA nos testes de software.
Klaudia Dussa-Zieger
A Dra. Klaudia Dussa-Zieger é líder de equipa de consultoria na Imbus e uma reconhecida especialista na área de testes de software. É especializada em gestão de testes, melhoria contínua de processos de teste e testes de e com Inteligência Artificial (IA).
Com uma forte paixão por testes e qualidade, participa em projetos com clientes há mais de 25 anos. É formadora certificada ISTQB® nos níveis Foundation e Advanced Level e, durante vários anos, lecionou testes de software na Universidade de Erlangen-Nuremberg. Além disso, é palestrante frequente em conferências sobre temas de testes que lhe são próximos. A Dra. Dussa-Zieger também contribui ativamente para o trabalho de estandardização: desde março de 2009, é presidente do grupo de trabalho DIN “System and Software Engineering”, incluindo a ISO/IEC/IEEE 29119. É membro do German Testing Board (GTB) há mais de dez anos e atualmente exerce o cargo de vice-presidente.
Além disso, é Presidente do ISTQB® (International Software Testing Qualifications Board) e lidera a AI Taskforce, que aborda os desafios e o potencial da IA nos testes de software.
Klaudia Dussa-Zieger
A Dra. Klaudia Dussa-Zieger é líder de equipa de consultoria na Imbus e uma reconhecida especialista na área de testes de software. É especializada em gestão de testes, melhoria contínua de processos de teste e testes de e com Inteligência Artificial (IA).
Com uma forte paixão por testes e qualidade, participa em projetos com clientes há mais de 25 anos. É formadora certificada ISTQB® nos níveis Foundation e Advanced Level e, durante vários anos, lecionou testes de software na Universidade de Erlangen-Nuremberg. Além disso, é palestrante frequente em conferências sobre temas de testes que lhe são próximos. A Dra. Dussa-Zieger também contribui ativamente para o trabalho de estandardização: desde março de 2009, é presidente do grupo de trabalho DIN “System and Software Engineering”, incluindo a ISO/IEC/IEEE 29119. É membro do German Testing Board (GTB) há mais de dez anos e atualmente exerce o cargo de vice-presidente.
Além disso, é Presidente do ISTQB® (International Software Testing Qualifications Board) e lidera a AI Taskforce, que aborda os desafios e o potencial da IA nos testes de software.
Calendário
Keynote
25 Novembro
Using LLM's for Software Testing
Esta palestra começa com uma breve visão geral sobre os Modelos de Linguagem de Grande Escala (LLMs), explicando a sua abordagem geral e os princípios fundamentais que os sustentam.
O foco principal está na aplicação prática dos LLMs no campo dos testes de software. Serão apresentados vários casos de uso ao longo do ciclo de vida dos testes de software, destacando como os LLMs podem apoiar e aprimorar diferentes atividades de teste.
Um exemplo detalhado demonstrará uma abordagem de Geração Aumentada por Recuperação (RAG – Retrieval-Augmented Generation), utilizando LLMs open-source implementados num ambiente de cloud privada.
A sessão termina com um resumo das atualizações no portefólio do ISTQB, especificamente as relacionadas com testes de sistemas baseados em IA e com o uso de ferramentas de IA para apoiar o processo de teste.
Sessões de Workshop
Half-Day
24 Novembro
Este workshop oferece uma introdução abrangente à engenharia de prompts (prompt engineering).
Os participantes irão explorar os componentes fundamentais dos prompts, padrões comuns de prompts e técnicas eficazes da sua criação. Todos os conceitos serão ilustrados com exemplos especificamente adaptados ao domínio dos testes de software.
Além disso, o workshop inclui uma série de exercícios práticos, permitindo que os participantes observem diretamente como variações no design dos prompts podem influenciar os resultados gerados pelos Modelos de Linguagem de Grande Escala (LLMs). Ao experimentar com diferentes LLMs, os participantes também ganharão perceção sobre como modelos distintos respondem de forma única aos mesmos prompts.
Calendário
Keynote
25 Novembro
Using LLM's
for Software Testing
Esta palestra começa com uma breve visão geral sobre os Modelos de Linguagem de Grande Escala (LLMs), explicando a sua abordagem geral e os princípios fundamentais que os sustentam.
O foco principal está na aplicação prática dos LLMs no campo dos testes de software. Serão apresentados vários casos de uso ao longo do ciclo de vida dos testes de software, destacando como os LLMs podem apoiar e aprimorar diferentes atividades de teste.
Um exemplo detalhado demonstrará uma abordagem de Geração Aumentada por Recuperação (RAG – Retrieval-Augmented Generation), utilizando LLMs open-source implementados num ambiente de cloud privada.
A sessão termina com um resumo das atualizações no portefólio do ISTQB, especificamente as relacionadas com testes de sistemas baseados em IA e com o uso de ferramentas de IA para apoiar o processo de teste.
Sessões de Workshop
Half-Day
24 Novembro
Este workshop oferece uma introdução abrangente à engenharia de prompts (prompt engineering).
Os participantes irão explorar os componentes fundamentais dos prompts, padrões comuns de prompts e técnicas eficazes da sua criação. Todos os conceitos serão ilustrados com exemplos especificamente adaptados ao domínio dos testes de software.
Além disso, o workshop inclui uma série de exercícios práticos, permitindo que os participantes observem diretamente como variações no design dos prompts podem influenciar os resultados gerados pelos Modelos de Linguagem de Grande Escala (LLMs). Ao experimentar com diferentes LLMs, os participantes também ganharão perceção sobre como modelos distintos respondem de forma única aos mesmos prompts.
