Este é um projeto pessoal de um checador de texto ofensivo desenvolvido com o intuito de detectar e analisar o tom de um texto, utilizando a API Google Perspective. A aplicação avalia o nível de toxicidade em um texto inserido pelo usuário e classifica-o com base em critérios como ofensa, insultos e outros comportamentos tóxicos.
O principal objetivo deste projeto foi:
- Aprender a integrar APIs externas em projetos frontend.
- Trabalhar com a Google Perspective API, uma ferramenta poderosa para análise de texto.
- Criar uma interface simples e intuitiva que permita aos usuários verificar se o conteúdo de um texto pode ser considerado ofensivo.
- Detecção de Textos Ofensivos: O sistema analisa o texto enviado pelo usuário através de uma pontuação de toxicidade e fornece uma resposta, indicando se o texto contém palavras ou frases prejudiciais.
- Interface Interativa: O usuário pode inserir um texto na interface e receber a avaliação em tempo real.
- HTML/CSS: Estruturação e estilização da interface da aplicação.
- JavaScript: Responsável por interagir com a API Google Perspective e gerenciar a lógica da aplicação.
- API Google Perspective: Usada para analisar o texto e calcular a pontuação de toxicidade.
- Git: Controle de versão para o desenvolvimento do projeto.