Stuart Russell e Peter Norvig | Inteligência Artificial

Inteligência Artificial 4 aprender não apenas por erudição, mas também para melhorar nossa habilidade de gerar comportamento efetivo, especialmente em circunstâncias que são novas. A abordagem do agente racional da IA tem duas vantagens sobre as outras abordagens. Primeiro, ela é mais genérica que a abordagem de “leis do pensamento”, visto que produzir inferência correta é apenas um entre vários mecanismos possíveis para se alcançar a racionali- dade. Em segundo lugar, ela é mais acessível ao desenvolvimento científico. O padrão de racio- nalidade é matematicamente bem definido e completamente geral. Frequentemente podemos trabalhar a partir dessa especificação para derivar projetos de agentes que comprovadamente a alcançam – algo que é amplamente impossível se o objetivo for imitar o comportamento humano ou os processos de pensamento. Por causa disso, a abordagem do agente racional da IA tem prevalecido pela maior parte da história desse campo. Nas primeiras décadas, os agentes racionais eram baseados em ali- cerces lógicos e formavam planos definidos para se alcançarem objetivos específicos. Poste- riormente, métodos baseados na teoria da probabilidade e aprendizado de máquina permi- tiram a criação de agentes que pudessem tomar decisões sob incerteza a fim de alcançar o melhor resultado esperado. Em resumo, a IA se concentra no estudo e na construção de agentes que fazem a coisa certa . Aquilo que é considerado a coisa certa é definido pelo objetivo que oferecemos ao agente. Esse paradigma geral é tão difundido que poderíamos chamá-lo de mo- delo padrão . Ele prevalece não apenas na IA, mas também na teoria de controle, em que um controlador minimiza uma função de custo; na pesquisa operacional, em que uma política maximiza uma soma de recompensas; na estatística, em que uma regra de decisão minimiza uma função de perda; e na economia, em que um tomador de decisão maximiza a utilidade ou alguma medida de bem-estar social. É preciso que se faça uma melhoria importante no modelo padrão para considerar o fato de que a racionalidade perfeita – sempre fazer a ação exatamente ótima – não é algo viável em ambientes complicados. As demandas computacionais são simplesmente muito elevadas. Os Capítulos 5 e 17 lidam com a questão da racionalidade limitada – agir de forma apropriada quando não existe tempo suficiente para realizar todas as computações que gostaríamos de fazer. No entanto, a racionalidade perfeita continua sendo um bom ponto de partida para a análise teórica. 1.1.5 Máquinas benéficas O modelo padrão tem constituído um guia útil para a pesquisa de IA desde o princípio, mas provavelmente não é o modelo certo a longo prazo. O motivo é que o modelo padrão pressu- põe que daremos à máquina um objetivo totalmente especificado. Para uma tarefa definida artificialmente, como no xadrez ou no cálculo do caminho mais curto, a tarefa vem com um objetivo embutido – portanto, o modelo padrão é aplicável. Porém, ao avançarmos para o mundo real, torna-se cada vez mais difícil especificar o objetivo de forma completa e correta. Por exemplo, ao projetar um carro autônomo, pode-se pensar que o ob­ jetivo é chegar ao destino com segurança. Mas dirigir em qualquer estrada incorre em riscos de danos causados por outros motoristas errantes, falha de equipamento, e assim por diante; desse modo, uma meta estrita de segurança exigiria a permanência na garagem. Há um certo compro­ misso entre prosseguir em direção ao destino e incorrer em risco de lesão. Como esse com­ promisso deve ser feito? Além disso, até que ponto podemos permitir que o carro execute ações que afetariam o comportamento de outros motoristas? Até que ponto o carro deve ser mode- rado em sua aceleração, direção e frenagem, a fim de evitar sacudir o passageiro? Essas per- guntas são difíceis de serem respondidas a priori . São particularmente problemáticas na área geral da interação humano-robô, de que o carro autônomo é um exemplo. O problema de chegar a um acordo entre nossas verdadeiras preferências e o objetivo que colocamos na máquina é chamado de problema de alinhamento de valores : os valores ou obje- tivos colocados na máquina devem ser alinhados aos do ser humano. Se estivermos desenvol- vendo um sistema de IA no laboratório ou em um simulador – como tem acontecido na maior parte da história nesse campo –, há uma solução fácil para um objetivo que foi especificado incorretamente: reiniciar o sistema, corrigir o objetivo e tentar novamente. À medida que o campo avança em direção a sistemas inteligentes cada vez mais capazes, que são implantados Fazer a coisa certa Modelo padrão Racionalidade limitada Problema de alinhamento de valores

RkJQdWJsaXNoZXIy Mzk4