Eu: "Oi, docinho."
Amigo: "Olá."
Eu: "Como está indo com as metas que conversamos sobre conseguir novos clientes?"
Amigo: "Tenho tentado. Só por causa dessa coisa de IA... Já perdi duas oportunidades de trabalho."
Eu: "O que você quer dizer com coisa de IA? "
Amigo: "Quero dizer, as ferramentas de IA usadas para testar se o conteúdo é genuíno ou não."
Eu: "Ah, claro. Então, como isso te preocupa? Você é um dos melhores e mais durões escritores com quem tive o privilégio de trabalhar ao longo dos anos."
Amigo: "Eu também, até que algumas ferramentas de verificação de originalidade de IA de conteúdo disseram que meus trabalhos eram perfeitos demais para terem sido escritos por humanos."
Mentiram para nós quando nos disseram que a IA não tiraria nossos empregos. Testemunhos e experimentos da vida real provam que as ferramentas de IA têm roubado os empregos dos humanos. Bem…, e continuará a fazê-lo.
O chat acima foi uma conversa entre um amigo, que é colega, e eu. Ela escreve de forma inteligente e usa diferentes ferramentas de IA para apoiar seu processo de criação de conteúdo, como verificação de plágio, correção de problemas gramaticais complexos com conteúdo e tornar o conteúdo legível.
No entanto, ela nunca girou um artigo para reescrevê-lo ou enganar o processo de escrita. Na verdade, ela não se preocupou em se inscrever ou usar o ChatGPT porque o considera um trapaceiro profissional.
Ela havia perdido duas oportunidades de conseguir dois clientes em potencial porque o cliente carregou seu conteúdo para uma ferramenta de IA que supostamente poderia julgar se o conteúdo foi gerado por IA ou gerado por humanos. O cliente não leu todo o documento.
Ele apenas permite que a IA faça o trabalho, e o trabalho dela voltou como gerado pela IA.
Desapontada e confusa, ela pediu a ferramenta e experimentou ela mesma. Para sua surpresa, o resultado voltou afirmativo como sendo escrito por IA, cerca de 95%. Ela tentou outro também; que teve uma pontuação menor, mas também disse que foi escrito principalmente por IA.
Ao fazer alguns ajustes e verificar novamente, ela teve um erro tipográfico e a pontuação voltou como 75% escrita por humanos. Ela viu o erro e o corrigiu; a pontuação voltou para 95% AI.
A lógica por trás dessa ferramenta em particular acabou sendo que o conteúdo escrito por humanos contém falhas e erros. Uau!
Então, qual é o objetivo da gramática e de outras ferramentas de auxílio à escrita? Parece que os desenvolvedores nunca pensaram nisso.
Primeiro, foi o reCAPTCHA
Achei engraçado e irônico que as máquinas agora peçam aos humanos para confirmar que são humanos. Primeiro, foram as imagens, letras, sinais e tiques do reCAPTCHA para provar às máquinas (hosts da web) que somos humanos.
Decidi experimentar diferentes ferramentas de currículo (Sistema de Rastreamento de Candidatos, ou ATS) para escanear meu currículo e ver a elegibilidade de minha competência para uma descrição de trabalho específica.
Primeiro, foi resumido “Worded” também. Na verdade, a ferramenta identificou alguns pontos fracos no currículo carregado. Meu desafio, no entanto, era que a IA não conseguia captar seções importantes do meu trabalho, como habilidades.
Eu usei "habilidades" e variei com "habilidades profissionais" e "habilidades (profissionais)", mas a ferramenta não conseguia nem reconhecer esses rótulos como cabeçalhos. Sua ausência fez com que pontuasse baixo.
Além disso, identificou cabeçalhos (cargos e funções) como marcadores que explicam as descrições dos cargos. Portanto, a recomendação de iniciar cada ponto com "verbos de ação" é ilógica. Caso você esteja se perguntando se coloquei um marcador antes da empresa onde trabalhei e das funções, não, não coloquei.
Havia também a questão da brevidade dos pontos. Eu deveria cortar pontos curtos, o que é relativo de qualquer maneira. Se você já escreveu um currículo, sabe como é difícil (quase impossível) discutir ações, funções e impactos de sua função em métricas mensuráveis em 15 a 20 palavras.
Ironicamente, no exemplo dado pela ferramenta sobre como iniciar um marcador com uma palavra de ação, era mais longo do que a maior parte do que escrevi.
Seguindo todas as recomendações, o currículo ainda ficou viciado em uma pontuação de margem de 80 para essa ferramenta específica. A ferramenta considera apenas uma pontuação de 90% e acima para trabalhos.
Eu tentei outra ferramenta ATS, cuja única opção era pegar palavras-chave no documento, não seções. Ele falhou em usar uma análise contextual de palavras, sentenças e frases. Ele não consegue identificar sinônimos ou palavras alternativas para todas as palavras possíveis do dicionário que um candidato pode usar!
Por exemplo, se a descrição do trabalho exigisse um diploma em um curso relacionado e a ferramenta fosse codificada para verificar um "diploma universitário", se você tivesse um diploma universitário em um curso relacionado, poderia ser desqualificado.
No entanto, se você mencionar que trabalhou como auxiliar de ensino em uma universidade, mesmo que a área seja irrelevante, seu currículo passará para a próxima etapa de análise.
Taleo é uma das ferramentas ATS usadas por grandes empresas como Toyota, Starbucks, Amazon e várias outras empresas. Ele usa o princípio de varredura de palavras-chave e densidade de palavras-chave (a frequência de palavras-chave de interesse.
Nos primeiros dias do Grammarly, se você enviasse seu trabalho a um cliente antes de uma revisão pessoal, ele o carregaria para o Grammarly e diria que tinha uma pontuação baixa (geralmente menos de 90) - o mesmo Grammarly que tem problemas para identificar como use um verbo após um substantivo incontável.
O mesmo Grammarly que escolhe palavras populares como imprecisões e sugere que você exclua ou substitua palavras comumente usadas (não necessariamente nesse contexto). Às vezes, ele não tem sugestões alternativas para a mesma palavra que sinaliza como um erro de "escolha de palavra".
A mesma ferramenta de IA que não entende totalmente seu tom de escrita ou público, mas escolhe vozes passivas como erros. Sobre isso, você concorda que os parâmetros na seção "Objetivos" são muito limitados.
Grammarly marca cada forma de verbo passivo como um “problema”, desconsiderando o tom ou configuração do seu documento.
Alguns clientes até esperariam que o conteúdo técnico e de nicho da indústria tivesse a pontuação de legibilidade de um aluno do ensino básico. A mesma ferramenta é o juiz. Por que eles pensam assim?
Porque eles assumem que uma pontuação de legibilidade mais alta SEMPRE significa que o conteúdo pode ser melhor compreendido, negligenciando os dados demográficos do público-alvo.
Passagem do Copyscape!!?? 🙃
O "passe Copyscape" era uma adição popular a muitos anúncios de emprego em plataformas freelance naquela época. Não importava se a ideia era popular, se você escreveu do seu jeito ou no seu estilo, ou mesmo se você tinha conhecimento de primeira mão do assunto; você perde o trabalho ou o cliente se o Copyscape o sinalizar!
1text.com também pode ser um dos verificadores de plágio mais notórios no mercado de ferramentas de geração de conteúdo de IA. Esse 'cara' escolhe sequências de palavras e frases como plágio. Portanto, é difícil ter uma pontuação precisa se você estiver escrevendo artigos técnicos sobre uma indústria ou ferramenta específica.
Por exemplo, ao escrever sobre JavaScript como linguagem de programação, você deve mencionar algumas palavras. 1text.com não se importa se o seu estilo, gramática ou contexto difere de outras fontes na internet, nem se importa com a sua apresentação.
Contanto que haja sequências de palavras semelhantes em uma ou duas frases, você é o culpado ⸻um plagiador!
RIP para os empregos que a IA fez os humanos perderem!
Portanto, nossos empregos estão sendo tirados de nós não porque a IA está substituindo nossas muitas habilidades como indivíduos, mas porque continua a impedir oportunidades que nosso conjunto de habilidades poderia ter nos conquistado. Eles são roubados de nossas mãos antes mesmo de pousar.
No entanto, as próprias ferramentas de IA não podem realizar essas tarefas tão bem quanto nós.
Não há duas ferramentas de IA exatamente iguais, mas estamos à mercê de lutar por slots com ferramentas com algoritmos diferentes. Seria sorte e acaso que um candidato jogasse direto na ferramenta que o recrutador está usando.
Infelizmente, os clientes executivos e clientes desses profissionais não sabem disso. Normalmente, existem executivos de negócios que mal têm tempo para desempenhar suas funções essenciais, mas acreditam que a IA é perfeita e toma as melhores decisões.
Assim, como redator de conteúdo, envio um artigo a um executivo de uma empresa de SaaS, e ele não o lê, mas o carrega em uma interface de verificador de plágio para verificar se é original ou não. Infelizmente, esse homem nem conhece os critérios de julgamento para o que torna uma ferramenta de IA confiável.
Para muitos criadores de conteúdo digital, a IA pode ser um mercado ruim nesse aspecto.
Essas ferramentas são construídas com algoritmos que capitalizam as fraquezas humanas como se não houvesse outras ferramentas para ajudar os humanos a superar seus descuidos e fraquezas.
Torna-se evidente que o nível de pensamento criativo de uma equipe de desenvolvimento de aplicativos determina como o aplicativo funcionará. O limite da sabedoria do desenvolvedor é o limite do aplicativo.
Alguns candidatos merecedores não avançarão na indústria a menos que os humanos parem de comprometer os esforços humanos e usem algoritmos e conjuntos de dados significativos para instruir seus modelos de IA. Não é IA contra humanos; é humanos contra humanos com IA sendo a arma .
Uma pessoa que tem uma ideia sobre o desenvolvimento de um sistema de rastreamento de candidatos para os empregadores não se sai bem se tudo o que faz é sentar-se com uma equipe de altos executivos de RH sobre as qualidades desejadas. Eles também devem falar com funcionários e candidatos a emprego.
Caso contrário, os que serão contratados serão aqueles que conseguirem vencer o sistema, não necessariamente as melhores mãos. A maior parte do seu software que prejudica os esforços humanos só quer vender mais valor para você em nome de um pacote "premium".
Não me diga, "aqueles que vencem o sistema são as melhores mãos." Oh, por favor; não me faça começar!
Eu vi descrições de produtos terríveis na Amazon e vi informações erradas ou estilos inconsistentes nos resultados da primeira página do Google .
Tenho visto erros de ortografia e erros gramaticais em alguns dos nossos mais respeitados canais de informação na internet.
No entanto, em um mundo capitalista-tecnológico, gerentes e executivos de alto escalão não exploram todas as possibilidades de uma ferramenta antes de adotá-la.
Contanto que uma ferramenta tenha uma grande arrecadação de fundos e seja patrocinada por nomes proeminentes da tecnologia, ela é considerada um sistema de aplicativo confiável.
Acredito que o futuro da inteligência artificial como uma entidade independente é impossível. No entanto, o maior potencial das ferramentas de IA será realizado em total colaboração com humanos. Não é para marginalizar os humanos ou continuar a se opor a eles. Eu acredito que é para apoiar os humanos.
As startups de IA e os gigantes da tecnologia precisam parar de desenvolver ferramentas de IA com a ambição de "pegar" um culpado e, em vez disso, usá-los como uma ferramenta para promover a colaboração humana e o desenvolvimento de negócios.
Também publicado aqui