A rápida ascensão da IA generativa construiu uma indústria multibilionária praticamente da noite para o dia, mas os participantes do South by Southwest disseram que grandes empresas de IA enfrentam menos supervisão do que as empresas alinhadas fora da conferência de Austin, Texas,.
“Há mais regulamentação em um caminhão de alimentos do que nessa tecnologia”, disse Emilia Javorsky, diretora do Programa Futures do Future of Life Institute, durante um painel da SXSW na segunda -feira.
“Parte disso é porque entendemos o caminhão de alimentos mais do que entendemos essa tecnologia”, observou Daniel Kokotajlo, ex -pesquisador de segurança da fabricante de chatgpt Openai, que deixou a empresa em 2024 para falar sobre a necessidade de segurança e transparência adicionais no setor.
A ascensão meteórica da inteligência artificial e a complexidade inerentes à tecnologia tornam particularmente difícil criar regras e guardar além das considerações políticas de fazer algo.
Mas há muitas idéias, incluindo uma do professor de direito de Harvard Lawrence Lessig: exigindo que os desenvolvedores de IA transportem seguros.
“É realmente importante que entendamos que a regulamentação não destrói, permite, se for inteligente”, disse Lessig no palco no painel.
A necessidade de transparência
A idéia de “confiança” está na mente de muitos falantes de inteligência artificial na SXSW, com especialistas se preocupando não apenas sobre o potencial de superinteligência que soa científica, mas também sobre as implicações cotidianas práticas de preconceitos e erros em produtos mais rudimentares, como chatbots.
A questão é como garantir que todo desenvolvedor de IA esteja construindo essa confiança. A segurança da IA é um tópico que as empresas sabem que precisam abordar. Basta testemunhar as páginas dedicadas a ele em OpenaiAssim, GoogleAssim, Microsoft, AntrópicoAssim, Adobe e em outros lugares.
Javorsky sugeriu uma estrutura regulatória não diferente da que em torno do desenvolvimento de medicamentos prescritos: pense em uma administração de alimentos e medicamentos para a IA. A maioria dos recursos usados no desenvolvimento de medicamentos é destinada a provar que são seguros, criando confiança nesses produtos quando chegam ao mercado. Quando os consumidores sentem que um produto é seguro, eles estão menos apreensivos ao usá -lo.
“Mesmo da perspectiva de alguém que só quer ver a IA florescer como uma indústria, a segurança é algo que você deve se preocupar”, disse Javorsky.
Kokotajlo e Lessig pressionaram por proteções de denunciantes para os trabalhadores das empresas de IA. As leis de denunciantes existentes protegem os trabalhadores que chamam atividades ilegais, mas muitas atividades potencialmente perigosas envolvendo novas tecnologias como a inteligência artificial são legais. Simplesmente não existem leis nos livros para esse tipo de coisa.
Lessig disse que os regulamentos de IA da União Europeia são muito complicados e não forçam as empresas a fazer a coisa certa por padrão.
“Acho que, em vez disso, temos que desenvolver uma conversa séria sobre o produto mínimo viável da regulamentação”, disse ele. “O produto mínimo viável é criar incentivos dentro dessas empresas para se comportar da maneira certa”.
Seguro como regulamento de IA
Lessig disse que exigir que os desenvolvedores de IA transportassem seguro criaria incentivos de mercado para responsabilidade. As companhias de seguros estabeleceriam taxas com base em quão arriscados são os produtos e comportamentos da empresa, o que significa que seria mais caro fabricar produtos que carecem de corrimões suficientes.
Existem requisitos de cobertura de seguro em outros contextos para colocar um preço, essencialmente, sobre comportamentos arriscados e irresponsáveis. Pense em como as taxas de seguro de carro aumentam se você tiver um registro de condução ruim e se tiver um histórico de direção seguro.
“Inicialmente, será um petrolífero e você terá algumas companhias de seguros que saem e pensam em como comercializar o preço de maneira diferente”, disse Lessig à CNET após o painel. “Esse é o tipo de incentivo que precisamos criar, esse tipo de influência competitiva para determinar qual é exatamente o risco de segurança que eles precisam garantir”.
Um requisito de seguro não resolveria tudo, disse Lessig, mas criaria alguns incentivos para as empresas desenvolverem requisitos de segurança robustos e responsáveis, à medida que pressionam por sistemas de IA mais inteligentes e inteligentes.
“O seguro é, para mim, o que está abordando o risco básico de risco de que isso causará enormes danos à sociedade”, disse ele.