Sessió: No iniciada

Search

ARTICLES - ZONA 1 (BANNER HORIZONTAL)

Anthropic fa un gir en la privacitat: el xatbot Claude també vol les teves dades

La companyia ha actualitzat la seva política de privadesa i comença a entrenar els seus models amb xats d'usuaris

Un expert en IA de la UOC explica les diferències que hi ha entre aquesta empresa i d'altres com OpenIA i Google

ARTICLES - ZONA 2

La companyia d’intel·ligència artificial Anthropic, fundada amb la promesa de prioritzar l’ètica i la seguretat, ha fet dos passos significatius que redefineixen la seva identitat. D’una banda, ha anunciat que emprarà les converses dels usuaris i usuàries per entrenar els seus models de llenguatge, en línia amb el que ja fan OpenAI i Google. De l’altra, ha arribat a un acord extrajudicial amb diversos autors i editorials per resoldre una demanda col·lectiva per l’ús no autoritzat de llibres en l’entrenament del seu xatbot Claude. La xifra de l’acord —1.500 milions de dòlars, uns 3.000 dòlars per obra— ha sacsejat el sector cultural i tecnològic.

“Pot semblar només un acord legal, però en realitat és una declaració estratègica: assumir costos avui per reforçar una narrativa de legitimitat i respecte a la creació”, explica Antonio Pita, professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la Universitat Oberta de Catalunya (UOC) i expert en IA. “Mentre OpenAI continua bregant amb batalles obertes als tribunals, Anthropic opta per projectar una imatge d’empresa que vol conviure amb l’ecosistema cultural en lloc d’enfrontar-s’hi”.

Una IA nascuda amb vocació ètica

Anthropic va néixer el 2021 sota el guiatge de Dario i Daniela Amodei, antics directius d’OpenAI que van decidir prendre un altre camí. Des del començament, van optar per una IA més segura, predictible i transparent, guiada pel que van denominar “Constitutional AI”: una arquitectura basada en una constitució de principis ètics que regula el comportament del xatbot Claude, en lloc de dependre únicament del feedback humà.

Aquesta aproximació es va convertir en el seu segell d’identitat, juntament amb la renúncia a utilitzar les converses de les persones usuàries per entrenar els seus models. “La seva visió és que el futur de la IA no es mesuri només per la seva potència, sinó també per la solidesa dels seus valors”, resumeix Pita. Claude es va convertir en una opció valorada pels qui necessitaven assistents més conservadors amb els temes crítics, o que poguessin mantenir la coherència en tasques llargues i complexes.

El gir: Claude també vol les teves dades

Anthropic ha actualitzat la seva política de privacitat i, a partir d’ara, utilitzarà per defecte les converses dels usuaris i usuàries per millorar els seus models, tret que s’indiqui expressament el contrari. És a dir: s’alinea amb OpenAI, Google, Meta i altres plataformes que ja incorporen aquesta pràctica. “Aquest gir es pot interpretar com una mescla de pragmatisme i necessitat de competitivitat”, afirma Antonio Pita. “No adoptar aquesta pràctica equivalia a jugar amb desavantatge en una carrera en què cada millora incremental compta.”

Des d’un punt de vista tècnic, la decisió podria ser positiva. “Permetrà entrenar models més ràpids, més precisos i amb una corba d’aprenentatge real alimentada per casos concrets”, assenyala l’expert. Però també reconeix el cost reputacional: “Anthropic va néixer com l’alternativa ètica, la companyia que s’atrevia a dir que la seguretat no era un afegitó, sinó el cor del projecte. Per a alguns usuaris i organitzacions sensibles a la privacitat, aquest canvi es pot llegir com una concessió que dilueix aquesta identitat.”

La clau estarà en la gestió del relat. “Si aconsegueix demostrar que pot utilitzar dades sense sacrificar transparència ni control per part de qui el fa servir,la maniobra podria enfortir-la. Si, en canvi, es percep com un pas enrere en els seus principis fundacionals, el risc és perdre la diferenciació que li donava sentit en un mercat saturat de gegants tecnològics”, adverteix.

L’acord amb els autors: estratègia o concessió

En paral·lel a aquest canvi, Anthropic ha acordat pagar una fortuna per resoldre una demanda presentada per autors i editorials estatunidencs, que denunciaven l’ús no autoritzat dels seus llibres en l’entrenament de Claude.

Encara que no ha transcendit la llista completa de títols ni autors, s’estima que la mitjana pagada és d’uns 3.000 dòlars per obra. Aquesta xifra és molt superior al que han ofert altres companyies i envia un missatge clar a l’ecosistema creatiu: Anthropic està disposada a pagar per legitimar el seu model.

“Mentre OpenAI continua bregant amb batalles obertes als tribunals, Anthropic opta per reforçar una narrativa de respecte a la creació. No es tracta només de construir el xatbot més potent, sinó de fer-ho de manera que escriptors, editors i usuaris percebin un terreny de joc més just”, explica Pita.

Tensió entre antics aliats

Aquest nou rumb coincideix amb el deteriorament de les relacions entre Anthropic i OpenAI, el seu competidor més directe. Totes dues companyies comparteixen origen —els fundadors d’Anthropic treballaven a OpenAI—, però han optat per camins divergents. La tensió ha arribat a tal punt que, a l’agost, Anthropic ha revocat l’accés d’OpenAI a l’API de Claude, acusant-la d’utilitzar-la per fer benchmarking i preparar el llançament de GPT‑5. Segons la companyia, es tracta d’una violació dels termes de servei que no es podia permetre.

“Parlar d’Anthropic enfront d’OpenAI és observar en directe com dues visions del futur de la intel·ligència artificial xoquen, malgrat compartir el mateix punt de partida”, sosté Pita. “Una aposta per la penetració massiva i una altra pels principis. El conflicte no és anecdòtic: és una guerra freda tecnològica i filosòfica.”

Claude enfront de ChatGPT: dues visions diferents

Mentre que OpenAI s’ha consolidat com el model dominant, amb una estratègia d’integració massiva en productes globals i col·laboracions amb Microsoft, Claude ha seguit un camí més contingut i conservador. Segons Pita, la seva proposta de valor es fonamenta en dos pilars: la “Constitutional AI” i la capacitat de tractar contextos llargs amb coherència, la qual cosa el fa ideal per a tasques complexes o d’anàlisi documental.

“El que va cridar més l’atenció va ser la filosofia que hi havia darrere: posar la seguretat i l’alineació al centre de l’experiència. Aquesta diferència no és un matís tècnic menor, sinó una declaració d’intencions”, destaca l’expert.

Ara, aquest diferencial es veu amenaçat per la necessitat de mantenir-se en la carrera tecnològica. “No adoptar les pràctiques de millora amb dades reals equivalia a quedar-se enrere. Però el risc és erosionar la confiança dels qui es van decantar per Claude precisament pel seu respecte a la privacitat.”

Què hi guanya (o perd) la persona usuària?

L’ús de dades dels usuaris i usuàries per entrenar models planteja interrogants ètics i tècnics. D’una banda, permet millorar les respostes, adaptar el sistema a contextos reals i reduir errors. D’una altra, implica riscos per a la privacitat i el control sobre els continguts generats.

“El benchmarking entre competidors és comú, però el fet rellevant no és si és ètic o no, sinó quines conseqüències té per a l’usuari final”, apunta Pita. “La pressió competitiva accelera la innovació, però també pot erosionar drets si no es regula adequadament.”

Anthropic assegura que mantindrà un enfocament responsable, amb opcions d’exclusió clara. No obstant això, com assenyala l’expert, “haurem de veure com evoluciona aquest tema. No seria la primera companyia que diu que farà una cosa i després fa el contrari”.

Desviació tàctica o canvi de rumb definitiu?

Els passos que ha fet Anthropic en els últims dies indiquen una transició estratègica cap a una IA més competitiva, encara que això impliqui sacrificar part de la identitat que la va fer singular. Per a alguns analistes, aquest moviment era inevitable si volia sobreviure en un mercat dominat per gegants. Per a d’altres, és un canvi de pell que pot danyar la confiança dels seus usuaris més fidels.

“El futur tant d’Anthropic com de la resta de competidors es juga en aquest equilibri delicat: guanyar competitivitat sense erosionar la confiança que la distingia”, conclou Pita. “Si aconsegueix demostrar que pot emprar dades sense sacrificar transparència ni control, la maniobra podria enfortir-la. Si, en canvi, es percep com un pas enrere en els seus principis fundacionals, el risc és perdre la diferenciació que li donava sentit en un mercat saturat.”

ARTICLES - ZONA 3

ARTICLES - ZONA 4

EL MES LLEGIT

1

2

3

4

ARTICLES - ZONA 2 (Tablet)

ARTICLES - ZONA 3 (Tablet)

ARTICLES - ZONA 5

ARTICLES - ZONA 6 (BANNER HORIZONTAL)

ARTICLES - ZONA 7

ESPORTS

ARTICLES - ZONA 4 (Tablet)

ARTICLES - ZONA 5 (Tablet)

ARTICLES - ZONA 8

ARTICLES - ZONA 11

ARTICLES - ZONA 12