2. Límits i ètica en intel·ligència artificial

Tot i els èxits i les promeses de la intel·ligència artificial, encara compta amb serioses i importants limitacions. Bàsicament, els programes poden funcionar molt bé en aplicacions concretes, però estan lluny de fer-ho a l’impredictible món real. Per a Francisco Martín, president de BigML, les tècniques amb prou feines han canviat en els últims anys. Simplement han augmentat les dades sobre les quals poden operar. Segons Martín, "molta gent està reinventant la roda al mateix temps" sense fer veritables avenços. De fet, els processos "requereixen encara molta experiència humana i es fan de forma molt manual".

Una de les limitacions té a veure amb la foscor del procés que segueixen els programes fins a arribar a les seves conclusions. Molts d'ells es basen en el que es coneix com a xarxes neuronals. Aquestes xarxes són construccions matemàtiques que s'assemblen en certa manera com funciona el nostre cervell, on la informació va saltant de nivell i consolidant-se de forma difusa. Són models molt potents, però necessàriament opacs, i han donat lloc a parlar de "la caixa negra de la intel·ligència artificial". Alguns experts, com Pierre Baldi, no li donen importància a aquesta foscor. Al cap i a la fi: "Fas servir el teu cervell tot el temps; confies en el teu cervell tot el temps; i no tens ni idea de com funciona el teu cervell". D'altres, com Marcello Pelillo, professor de Ciència Computacional a la Universitat de Venècia, reconeixen que hi ha situacions "on és important poder explicar les decisions". Per exemple, si afecta la decisió d'un jutge o d'una institució social. I, en general, per garantir el respecte a l'autonomia i la dignitat individual.

Perquè l'ús de la intel·ligència artificial implica nombrosos dilemes i reptes ètics. Aquests són alguns dels proposats per Francesca Rossi, investigadora a IBM i professora de Ciències de la Computació a la Universitat de Pàdua:

  • ¿Substituirà la intel·ligència artificial el treball dels humans?
  • Com canviarà la nostra interacció amb altres humans i la societat o l'educació?
  • En un futur, què passarà davant la possibilitat de desenvolupar armes autònomes?
  • Com serà el desenvolupament ètic de la pròpia intel·ligència artificial?

Per Rossi, caldrà desenvolupar els sistemes de manera que discriminin els seus resultats de forma ètica. Això haurà de ser així, òbviament, en el cas dels sistemes autònoms, però també en d'altres. Per exemple, en eines que aconsellin els metges en base a l'anàlisi de dades: "Si aquests suggeriments no segueixen un codi ètic, els propis metges no confiaran en aquest sistema". La clau és com desenvolupar aquest codi, ja que els processos de decisió del programa, com hem vist, són moltes vegades foscos per la seva pròpia naturalesa.

Això no és senzill. D'una banda per un tema de flexibilitat. El que a nosaltres ens pot semblar una mica de sentit comú no té per què ser-ho per a una màquina. "Un robot de cuina no hauria de cuinar el nostre gat si no hi ha res a la nevera, encara que consideri que aquest seria un dinar acceptable per a nosaltres", exemplifica Rossi.

Una solució podria ser programar segons els codis professionals. "Però aquests tenen molts buits que nosaltres omplim amb sentit comú. Una cosa que és difícil d'introduir en una màquina".

Es pot fer, doncs? Segons Rossi, sí. "Hi ha diverses maneres que ara mateix s'estan estudiant". El procés, a més, amaga avantatges. "Fer-ho pot ajudar-nos a prendre consciència i a comportar-nos nosaltres mateixos d'una manera més ètica".