IoT e transformação digital Uso responsável da IA ​​na pesquisa


Assim como qualquer outra coisa, a IA (inteligência synthetic) traz oportunidades e riscos – promete e perigo. E, como qualquer outra coisa, devemos estar preparados para isso. A próxima pergunta logística é que devemos considerar o lançamento dos padrões para orientar o uso responsável da IA ​​em várias indústrias?

Para o weblog de hoje, vamos considerar o exemplo de pesquisa. Primeiro, vamos abordar as oportunidades e riscos. A IA pode ajudar aqui de várias maneiras, inclusive com análise de imagem automatizada, modelagem de terrenos em 3D, classificação do uso da terra, simulação de planejamento, monitoramento de progresso, garantia de qualidade e manutenção preditiva, apenas para citar alguns. Por fim, ajudará a mapear mais rapidamente.

Obviamente, também existem desafios aqui. Os trabalhadores ainda precisam ser capazes de fazer com que a precisão da pesquisa e os modelos de IA requerem treinamento para garantir dados de qualidade. Também há sempre perguntas sobre custo, privacidade de dados e conformidade regulatória.

Agora, vamos responder à pergunta em questão: devemos considerar o lançamento dos padrões para orientar o uso responsável da IA ​​em várias indústrias? Uma organização diz que sim.

O lançamento dos padrões da IA

O RICS (Royal Establishment of Chartered Surveyors) publicou um padrão profissional world para o uso responsável da inteligência synthetic na pesquisa.

Definido para entrar em vigor em março de 2026, o novo padrão estabelece requisitos obrigatórios e expectativas de práticas recomendadas para membros do RICS e empresas regulamentadas em todo o mundo. Ele aborda a crescente integração da IA ​​nas Serviços de Avaliação, Construção, Infraestrutura e Terrenos – e o padrão visa garantir que essas ferramentas sejam usadas ética, transparentemente e com supervisão profissional.

Algumas das principais disposições do novo padrão incluem governança e gerenciamento de riscos, julgamento e supervisão profissionais, transparência e comunicação do cliente e desenvolvimento ético da inteligência synthetic.

Os requisitos padrão definem, incluindo:

  • Forneça uma base para o aumento da profissão.
  • Representar uma linha de base do gerenciamento da prática em empresas regulamentadas, com o objetivo de minimizar o risco de danos causados ​​pelos sistemas de IA na prestação de serviços
  • Ativar decisões informadas e claras a serem tomadas nas compras e dependência de IA em saídas de IA
  • Represente a boa comunicação e o compartilhamento de informações com os clientes e outras partes interessadas relevantes e forneça uma estrutura para o desenvolvimento responsável dos sistemas de IA pelos membros e empresas regulamentadas.

Obviamente, a pesquisa é apenas um exemplo. Outras indústrias também estão trabalhando na criação de padrões para o uso de IA responsável, incluindo assistência médica, serviços financeiros, automotivo, energia, fabricação e muito mais.

IoT e transformação digital Uso responsável da IA ​​na pesquisa

O ponto -chave aqui é que a IA não é inerentemente boa ou ruim. É simplesmente uma ferramenta. As oportunidades são enormes, mas somente se os riscos forem responsabilidades gerenciadas. Isso pode ser feito de algumas maneiras, como através de governança transparente e diálogo público em andamento com as partes interessadas internas e externas. O ponto inferior aqui são as políticas e estruturas de ética são essenciais para garantir que a IA seja desenvolvida e usada para o benefício de todos.

Quer twittar sobre este artigo? Use hashtags #surveying #building #iot #sustainability #5g #cloud #edge #futureofwork #infrastructure

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *