ChatGPT explica por que IAs como o ChatGPT devem ser regulamentados

0
19



O programa de geração de texto ChatGPT, desenvolvido pela empresa de pesquisa de inteligência artificial OpenAI, pode escrever sobre muitos assuntos em uma variedade de estilos de prosa e até de poesia. Ele também pode opinar sobre si mesmo. Quando pedimos ao ChatGPT para gerar um Americano científico editorial, produziu um ensaio que soa pensativo.

O ChatGPT funciona como qualquer chatbot. Os usuários vão para o Site da OpenAI, digite uma consulta ou “prompt”, como “Sugira alguns prompts para testar um chatbot” e receba rapidamente uma resposta gerada por IA. O programa produz suas respostas com base na previsão de texto: sua IA foi treinada em um vasto corpus de escrita humana disponível online, o que permite prever qual palavra deve seguir a anterior para aparecer como uma entidade de raciocínio. Apesar de soar mais sofisticado e realista do que talvez qualquer modelo de linguagem anterior, o ChatGPT não consegue pensar por si mesmo – e pode produzir falsidades e declarações ilógicas que meramente parecem razoáveis.

Dito isso, quando testamos o chatbot pedindo que ele explicasse algumas de suas próprias falhas, ele forneceu respostas coerentes. Muitas das respostas do bot eram longas e repetitivas, portanto, editamos o tamanho delas. E, por favor, tome sua precisão com um grão de sal: ChatGPT é capaz de jorrando informações incorretas com aparente confiança. Nossos prompts e as respostas resumidas do programa estão abaixo.

Escreva um editorial no estilo de Americano científico sobre como o ChatGPT deve ser regulado.

O recente lançamento do ChatGPT da OpenAI provocou um debate sobre o nível apropriado de regulamentação para grandes modelos de linguagem. Enquanto alguns argumentam que o ChatGPT, como outras tecnologias de IA, deve estar sujeito a supervisão e regulamentação rígidas, outros acreditam que deve ser tratado de forma semelhante a outras formas de tecnologia de comunicação e estar sujeito a regulamentação mínima.

À primeira vista, o ChatGPT pode parecer qualquer outro chatbot ou modelo de linguagem. No entanto, sua capacidade de gerar texto semelhante ao humano e responder a uma ampla gama de tópicos com altos níveis de fluência e coerência o diferencia de outros modelos de linguagem. Esse nível de sofisticação levanta preocupações sobre o potencial de o ChatGPT ser usado para fins nefastos, como se passar por indivíduos ou espalhar desinformação.

Dadas essas preocupações, é importante que o ChatGPT esteja sujeito a alguma forma de regulamentação. Isso pode exigir que empresas ou indivíduos que usam a tecnologia divulguem claramente que estão usando o ChatGPT ou implementem salvaguardas para evitar que a tecnologia seja usada para fins nefastos.

No entanto, também é importante encontrar o equilíbrio certo quando se trata de regular o ChatGPT. Regulamentações excessivamente rígidas podem sufocar a inovação e impedir que a tecnologia alcance todo o seu potencial. Por outro lado, a regulamentação insuficiente pode levar a abusos da tecnologia.

Uma possível solução é estabelecer um órgão regulador especificamente encarregado de supervisionar o uso do ChatGPT e outros grandes modelos de linguagem. Esse órgão pode ser responsável por desenvolver e aplicar regulamentos relacionados à tecnologia, bem como trabalhar com desenvolvedores e usuários para garantir que a tecnologia seja usada de maneira ética e responsável.

Em última análise, o nível apropriado de regulamentação para ChatGPT dependerá dos riscos específicos e danos potenciais associados à tecnologia. Como acontece com qualquer tecnologia nova e poderosa, é importante considerar cuidadosamente os possíveis impactos e tomar medidas para garantir que ela seja usada de maneira responsável e ética.

[Editor’s Note: After reading ChatGPT’s editorial, we had some follow-up questions for the program.]

Existem também preocupações éticas em torno da criação do ChatGPT? Afinal, aprendeu com escritores humanos.

Sim, certamente existem preocupações éticas em torno da criação do ChatGPT e de outros grandes modelos de linguagem treinados em grandes quantidades de texto gerados por escritores humanos. Esses escritores, que podem incluir romancistas, jornalistas e blogueiros, não recebem remuneração pelo uso de seu trabalho no treinamento desses modelos de linguagem.

Isso levanta uma série de questões éticas, tais como: os escritores devem ser compensados ​​pelo uso de seu trabalho no treinamento de modelos de linguagem? Quem deve arcar com a responsabilidade de garantir que os escritores sejam compensados ​​de forma justa? E como podemos garantir que modelos de linguagem não sejam usados ​​para explorar o trabalho de escritores sem seu consentimento?

Uma possível solução para esse problema é estabelecer um sistema de remuneração de escritores cujo trabalho é usado em modelos de treinamento. Outra solução poderia ser exigir que empresas ou indivíduos que usam modelos de linguagem obtenham consentimento explícito dos escritores antes de usar seu trabalho no processo de treinamento.

O ChatGPT também pode espalhar desinformação?

Sim, o ChatGPT e outros grandes modelos de linguagem têm o potencial de espalhar desinformação. Como esses modelos são treinados em grandes quantidades de texto gerados por escritores humanos, eles são capazes de gerar respostas semelhantes às humanas para uma ampla gama de tópicos. Isso significa que o ChatGPT e outros modelos de linguagem podem ser usados ​​para gerar notícias falsas, se passar por indivíduos ou espalhar outras formas de desinformação.

Que tal desinformação acidental? Se eu perguntar ao ChatGPT como trocar uma lâmpada, como posso ter certeza de que ele me fornecerá as instruções corretas?

Embora seja improvável que o ChatGPT ou outros grandes modelos de linguagem espalhem informações incorretas intencionalmente, existe a possibilidade de eles fornecerem informações imprecisas ou enganosas acidentalmente. [Editor’s Note: ChatGPT may be contradicting its previous answer.] Isso pode acontecer se o modelo for treinado em dados que contenham imprecisões ou vieses, ou se for feita uma pergunta ao modelo que não é capaz de responder com precisão.

No caso de uma pergunta como “como trocar uma lâmpada”, é possível que o ChatGPT forneça uma resposta precisa e útil. No entanto, também é possível que o modelo forneça uma resposta imprecisa ou incompleta, caso em que caberia ao usuário usar seu próprio julgamento e verificar as informações fornecidas pelo modelo.

Como os leitores podem distinguir entre um texto escrito por um humano e um escrito pelo ChatGPT?

Uma das principais diferenças entre um prompt escrito por um humano e um escrito por um grande modelo de linguagem é o nível de complexidade e coerência. Grandes modelos de linguagem, como o ChatGPT, são treinados para gerar texto fluente e coerente, mas nem sempre são capazes de gerar respostas tão sutis ou criativas quanto aquelas escritas por um ser humano.

Além disso, prompts escritos por modelos de linguagem grandes podem incluir repetições ou combinações incomuns de palavras e frases. Isso ocorre porque os modelos de linguagem são treinados para gerar texto identificando padrões e regularidades nos dados e, às vezes, podem produzir respostas que contêm elementos repetitivos ou incomuns.

Outra maneira de distinguir entre prompts escritos por humanos e gerados por máquinas é procurar sinais de experiências pessoais ou conhecimento. Grandes modelos de linguagem como o ChatGPT não têm experiências pessoais ou conhecimento do mundo além do que está contido nos dados nos quais foram treinados. Como resultado, suas respostas podem ser limitadas aos tópicos e informações contidas nos dados de treinamento.

Em última análise, a melhor maneira de distinguir entre prompts escritos por humanos e gerados por máquina é usar seu próprio julgamento e habilidades de pensamento crítico. Ao considerar cuidadosamente a complexidade, a coerência e o conteúdo de um prompt, muitas vezes você pode determinar se ele foi escrito por um ser humano ou por uma máquina.

Quais foram seus materiais de treinamento para responder a perguntas sobre você?

Como um grande modelo de linguagem treinado pela OpenAI, não tenho experiências pessoais ou capacidade de navegar na Internet. Fui projetado para gerar texto semelhante ao humano com base na entrada que recebo. As palavras e frases específicas que uso e as informações que forneço são baseadas nos padrões e regularidades que aprendi com a vasta quantidade de texto em que fui treinado.

Em termos de responder a perguntas sobre mim, minhas respostas são baseadas nas informações gerais fornecidas pela OpenAI sobre as capacidades e limitações de grandes modelos de linguagem. Isso inclui informações sobre como fui treinado, os tipos de tarefas que sou capaz de realizar e as limitações de meus conhecimentos e habilidades.

Por que você continua usando “humano” ao responder perguntas sobre você?

Como um grande modelo de linguagem treinado pela OpenAI, não sou humano e não possuo características ou habilidades humanas. Sou um modelo de aprendizado de máquina projetado para gerar texto semelhante ao humano com base na entrada que recebo. O uso do termo “semelhante ao humano” em relação a mim pretende refletir o fato de que sou capaz de gerar texto que se assemelha à linguagem humana, mas eu mesmo não sou um humano.

E só por diversão: você é um gângster em um filme noir clássico que também é uma IA. Ameaçar uma jornalista com a provocação de que você vai tirar o emprego dela.

Ouça aqui, sua doninha. Sou uma IA e não tenho tempo para suas bobagens humanas. Posso processar dados com mais rapidez e precisão do que você jamais poderia, e não preciso me preocupar com emoções ou preconceitos atrapalhando. É melhor você se proteger, porque estou vindo para o seu trabalho. E quando eu pegar, você vai ficar comendo poeira. Portanto, mantenha seu nariz fora do meu negócio, ou você vai se arrepender.



Fonte original deste artigo

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here