Ouvir o texto...

segunda-feira, 2 de abril de 2018

US universities try to bring ethics from doctors to programmers. Computer and data course teachers begin movement to encourage students to reflect on the negative impacts of technology. - Universidades dos EUA tentam trazer ética dos médicos para programadores.. Professores de cursos de computação e dados iniciam movimento para estimular estudantes a refletirem sobre impactos negativos da tecnologia.

The medical profession has an ethic: first of all, do not hurt. Silicon Valley has one rule: first do, then ask for forgiveness. But today, with fake news and other issues reaching the technology giants, universities that have formed some of the Valley's greatest geniuses are moving to bring Computer Science a bit of medical ethics.

1
Jeremy Weinstein, Hilary Cohen, Mehran Sahami and Rob Reich of Stanford University will start a new ethics course next year.



In this semester, Harvard University and the Massachusetts Institute of Technology (MIT) are jointly offering a new course on ethics and regulation of artificial intelligence. The University of Texas at Austin has just launched a course titled "Ethical Foundations of Computer Science." The institution intends to integrate it into all its courses.

And at Stanford University, the academic heart of Silicon Valley, three professors and one researcher are developing a computer science ethics course to begin in 2019. The university expects hundreds of students to apply.

Dilemmas. The idea is to train the next generation of technology experts - and also legislators - to consider the dark side of innovations, such as self-powered weapons or cars without a driver, before those products reach the market.

"It's about discovering or identifying points with which, in the coming years, the students here will face," said Mehram Sahami, a professor of computer science at Stanford University. He gained fame on campus for taking Facebook CEO Mark Zuckerberg to talk to students every year.

"The technology is not neutral," said Sahami, who has worked on Google as a research scientist. "The choices made in adopting technology have social ramifications."

The courses come at a time when big technology companies struggle to control their side effects. Just see Facebook, with the scandal of illicit use of data by Cambridge Analytica, the fight to end false accounts on Twitter and to take obscene videos with children on YouTube. These professors aim to challenge a common attitude in Silicon Valley: to consider ethics as a barrier to innovation.

"We have to teach people that there is a downside to the idea of ​​'always moving forward, even breaking things,'" says Laura Norén, a postdoctoral fellow at the Data Science Center at New York University who teaches in a new ethics in Data Science. "It's possible to fix software, but not a destroyed reputation."

Computer science courses have to ensure that students are aware of ethical standards related to computing in order to be endorsed by ABET, the international validation group for university science and engineering programs. In some courses, the subject is embedded in more comprehensive classes, while in others, they are addressed in independent courses.

However, until recently ethics did not seem relevant to many students. "Compared to medicine, daily interaction with pain or death is much lower when producing software," says Joi Ito, director of MIT's Media Lab.

Automation. One of the reasons universities are investing in ethics is the popularization of powerful technologies, such as machine learning. These are algorithms that can learn autonomously to execute tasks from the analysis of large volumes of data.

As such tools can ultimately modify society, universities are quick to make students understand the potential consequences. "Once we start doing things like stand-alone vehicles, people are eager to create an ethical system."

Last year, Cornell University introduced a course in which students learn to face ethical challenges. They have to analyze a biased data set, with few low-income households, for example, to understand that the database is not representative for the population as a whole. Students also debate the use of algorithms in life decisions, such as hiring someone or choosing a university. "I have tried to make them understand the challenges they will face," said Solon Baroca, an information science professor who teaches in the course.

Last year, Cornell University introduced a course in which students learn to face ethical challenges. They have to analyze a biased data set, with few low-income households, for example, to understand that the database is not representative for the population as a whole. Students also debate the use of algorithms in life decisions, such as hiring someone or choosing a university. "I have tried to make them understand the challenges they will face," said Solon Baroca, an information science professor who teaches in the course.

In another Cornell course, teacher Karen Levy directs the ethical discussion to the role of business, not professionals. "Many ethical decisions have to do with the choices that a company makes: what products it will develop, how it will handle the personal data of its users," said Karen. "If ethical training focuses entirely on the individual responsibility of the data scientist, there is a risk that the company's role will be underestimated."

Harvard and MIT course is 30 years old

The ethics course developed jointly by Harvard University and MIT has 30 students. It addresses ethics, policies, and legal implications of artificial intelligence. Part of the course is funded by an artificial intelligence ethics research fund, which includes donors like Reid Hoffman, a co-founder of LinkedIn, and Pierre Omidyar, one of the founders of eBay.

The curriculum also covers the risks of social rankings created by algorithms. In addition, there are reflections on basic questions like "Is technology always fair?" And "Should machines judge humans?"







Cultura não é o que entra pelos olhos e ouvidos,
mas o que modifica o jeito de olhar e ouvir. 

A cultura e o amor devem estar juntos.
Vamos compartilhar.

Culture is not what enters the eyes and ears, 
but what modifies the way of looking and hearing















--br
Universidades dos EUA tentam trazer ética dos médicos para programadores.


Professores de cursos de computação e dados iniciam movimento para estimular estudantes a refletirem sobre impactos negativos da tecnologia.

1
Jeremy Weinstein, Hilary Cohen, Mehran Sahami e Rob Reich, da Universidade de Stanford, vão iniciar novo curso de ética no próximo ano.

A profissão médica tem uma ética: antes de tudo, não ferir. O Vale do Silício tem uma regra: primeiro fazer, depois pedir perdão. Hoje, porém, com as notícias falsas (fake news) e outros problemas que atingem as gigantes de tecnologia, universidades que formaram alguns dos maiores gênios do Vale estão se mexendo para trazer para a Ciência da Computação um pouco da ética da Medicina.


Neste semestre, a Universidade de Harvard e o Massachusetts Institute of Technology (MIT) estão oferecendo em conjunto um novo curso sobre ética e regulação da inteligência artificial. A Universidade do Texas, em Austin, também acaba de lançar um curso intitulado “Fundamentos Éticos da Ciência da Computação”. A instituição pretende eventualmente integrá-lo a todos os seus cursos.

E, na Universidade de Stanford, o coração acadêmico do Vale do Silício, três professores e um pesquisador estão desenvolvendo um curso de ética em Ciências da Computação para começar a partir de 2019. A universidade espera que centenas de estudantes se inscrevam.

Dilemas. A ideia é treinar a próxima geração de especialistas em tecnologia – e também legisladores – para considerar o lado obscuro de inovações, como armas que funcionam sozinhas ou carros sem motorista, antes que esses produtos cheguem ao mercado.


“Trata-se de descobrir ou identificar pontos com os quais, nos próximos anos, os estudantes aqui formados vão se defrontar”, disse Mehram Sahami, professor de Ciências da Computação na Universidade de Stanford. Ele ganhou fama no campus por levar o presidente executivo do Facebook, Mark Zuckerberg, para conversar com os alunos todo ano.

“A tecnologia não é neutra”, disse Sahami, que já trabalhou no Google como cientista pesquisador. “As escolhas feitas na adoção de tecnologia têm ramificações sociais.”

Os cursos surgem num momento em que grandes empresas de tecnologia lutam para controlar seus efeitos colaterais. Basta ver o Facebook, com o escândalo do uso ilícito de dados pela Cambridge Analytica, a luta para acabar com contas falsas no Twitter e para tirar do ar vídeos obscenos com crianças no YouTube. Esses professores pretendem desafiar uma atitude comum no Vale do Silício: a de considerar a ética como um entrave à inovação.


“Temos de ensinar às pessoas que há um lado negativo na ideia de ‘avançar sempre, mesmo quebrando coisas’”, diz Laura Norén, pós-doutoranda do Centro de Ciência de Dados da Universidade de Nova York, que leciona em um novo curso de ética em Ciência de Dados. “É possível consertar um software, mas não uma reputação destruída.”

Cursos de ciência da computação têm de garantir que os estudantes tenham conhecimento de normas éticas relacionadas à computação para terem o aval do ABET, grupo internacional de validação de programas universitários de Ciência e Engenharia. Em alguns cursos, o tema é embutido em aulas mais abrangentes, enquanto em outras, são abordados em cursos independentes.

No entanto, até recentemente a ética não parecia relevante para muitos estudantes. “Comparada à Medicina, a interação diária com a dor ou a morte é muito menor quando se produz software”, diz Joi Ito, diretor do Media Lab, do MIT.

Automação. Um dos motivos para as universidades estarem investindo em ética é a popularização de tecnologias poderosas, como o aprendizado de máquina. Tratam-se de algoritmos que podem aprender de modo autônomo a executar tarefas a partir da análise de grandes volumes de dados.

Como tais ferramentas podem, em última análise, modificar a sociedade, as universidades se apressam a fazer os estudantes entenderem as potenciais consequências. “Uma vez que começamos a fazer coisas como veículos autônomos, as pessoas estão ansiosas para criar um sistema ético.”

No ano passado, a Universidade Cornell introduziu um curso no qual os estudantes aprendem a enfrentar desafios éticos. Eles têm de analisar um conjunto de dados tendenciosos, com poucos lares de baixa renda, por exemplo, para entenderem que o banco de dados não é representativo para o conjunto da população. Os alunos também debatem o uso de algoritmos em decisões de vida, como contratar alguém ou escolher uma universidade. “Procurei fazê-los entender os desafios que enfrentarão”, disse Solon Baroca, professor de Ciência da Informação que leciona no curso.

No ano passado, a Universidade Cornell introduziu um curso no qual os estudantes aprendem a enfrentar desafios éticos. Eles têm de analisar um conjunto de dados tendenciosos, com poucos lares de baixa renda, por exemplo, para entenderem que o banco de dados não é representativo para o conjunto da população. Os alunos também debatem o uso de algoritmos em decisões de vida, como contratar alguém ou escolher uma universidade. “Procurei fazê-los entender os desafios que enfrentarão”, disse Solon Baroca, professor de Ciência da Informação que leciona no curso.

Em outro curso da Cornell, a professora Karen Levy direciona a discussão ética para o papel das empresas, não dos profissionais. “Muitas decisões éticas têm a ver com as escolhas que uma empresa faz: que produtos vai desenvolver, como lidará com os dados pessoais de seus usuários”, disse Karen. “Se o treinamento ético se concentrar inteiramente na responsabilidade individual do cientista de dados, há o risco de o papel da empresa ser subestimado.”

Curso de Harvard e MIT tem 30 anos

O curso de ética desenvolvido em parceria pela Universidade de Harvard e pelo MIT tem 30 alunos. Ele aborda ética, políticas e implicações legais da inteligência artificial. Parte do curso é financiada por um fundo para pesquisas em ética na inteligência artificial, que inclui doadores como Reid Hoffman, cofundador do LinkedIn, e Pierre Omidyar, um dos fundadores do eBay.

O currículo também cobre os riscos dos rankings sociais criados por algoritmos. Além disso, há reflexões sobre perguntas básicas como “A tecnologia é sempre justa?” e “As máquinas deveriam julgar humanos?”.


by ROBERTO MUNIZ

Nenhum comentário:

Postar um comentário