M'he animat a començar aquest post despres de llegir ahir la noticia del projecte de construcció d'un mega centre de computació a Mora la Nova. Les preguntes que m'han sorgit son moltes: què és això d'un Megacomputing Center, que son els GPUs, quines empreses hi son al darrera, quin paper juga UE en la geopolitica de la IA al mon?. El que segueix son notes que he anat prenent i que, fins que m'atipi, penso anar completant.
Algunes definicions prèvies
La Singularitat
És un concepte que es pot entendre des de diferents perspectives, però en essència es refereix a un punt d'inflexió en la història de la humanitat, on l'avanç tecnològic es torna tan ràpid i profund que és difícil, si no impossible, predir les seves conseqüències. En termes generals, la singularitat implica que la intel·ligència artificial (IA) pot arribar a superar a la humana, desencadenant canvis radicals en la societat. És aquí on Harari s'instal·la.La Intel·ligència artificial IA / AI
És una disciplina i un conjunt de capacitats cognoscitives
i intel·lectuals expressades per sistemes informàtics o combinacions
d'algorismes el propòsit dels quals és la creació de màquines que imitin
la intel·ligència humana per a fer tasques, i que poden millorar
conforme recopilin informació.
Aquestes tecnologies permeten que les màquines aprenguin de l'experiència, s'adaptin a noves entrades i facin tasques humanes com el reconeixement de veu, la presa de decisions, la traducció d'idiomes o la visió per computadora. En l'actualitat, la intel·ligència artificial abasta una gran varietat de subcamps: àrees de propòsit general, aprenentatge i percepció; altres més específiques com el reconeixement de veu, el joc d'escacs, la demostració de teoremes matemàtics, l'escriptura de poesia i el diagnòstic de malalties.
La intel·ligència artificial sintetitza i automatitza tasques que en principi són intel·lectuals i, per tant, és potencialment rellevant per a qualsevol àmbit d'activitats intel·lectuals humanes. En aquest sentit, és un camp genuïnament universal, a més, la IA es troba en constant evolució gràcies al desenvolupament de tecnologies com l'aprenentatge profund, xarxes neuronals i processament del llenguatge natural, la qual cosa permet un avanç accelerat en la seva capacitat per a resoldre problemes complexos.
La Intel·ligència
artificial general (IAG, AGI)
És
una forma de IA capaç de comprendre, aprendre i fer qualsevol tasca cognitiva
que un ésser humà pugui realitzar, amb un nivell de rendiment igual o superior.
És
un tipus hipotètic d'intel·ligència artificial que iguala o excedeix la
intel·ligència humana mitjana. Si es fes realitat, una IAG seria capaç de fer
qualsevol tasca intel·lectual que els éssers humans o els animals puguin dur a
terme.
La
IAG també s'ha definit com un sistema autònom que supera les capacitats humanes
en la majoria de les tasques econòmicament valuoses. La creació de la IAG és un
objectiu primordial d'empreses actuals com OpenAI Ltd. Co., DeepMind
i Anthropic. Avui hi ha una àmplia discussió sobre la possibilitat que
la IAG, de crear-se pogués suposar una amenaça per a la humanitat. Per
exemple, OpenAI considera la IAG un risc existencial, mentre que uns altres
creuen que el desenvolupament de la IAG encara és massa remot com per a suposar
un risc.
La Diferència entre IA i IAG
La diferència clau entre la IA
i la IAG rau en la finalitat i abast de la recerca. Això vol dir que la
intel·ligència artificial tracta propietats específiques en els seus
projectes, com per exemple la capacitat d’aprenentatge lingüístic (LLM) o
reconeixement d’imatges, sense pretendre integrar-les en un sistema més
ampli, mentre que la IAG, refereix a emprenedories amb una ambició que cobreix
la totalitat complexitat de la intel·ligència humana.
Avui es dona una certa confusió pel fet que el significat original de IA s’assemblava més a l’actual IAG que a allò que avui dia entenem científicament, com IA. Les confusions es deuen al fet que, originàriament, IA va designava el somni de moda de l’època (meitat segle XX): la consciència artificial.
En aquell moment semblava un camp de recerca prometedor però, al veure’s desproporció existent entre les expectatives depositades i la realitat assolida, encara que fos possible aconseguir la consciència artificial, aquesta meta seria molt més llunyana del previst, el que va provocar la decadència en l’estudi d’allò que llavors es coneixia amb el nom de IA.
Posteriorment al fracàs d’aquesta generació pionera d’investigadors, aquells que van romandre en el camp, van traslladar el seu treball a altres matèries més assumibles (sobretot aspectes particulars de la intel·ligència), i no van tornar a acostar-se al repte de la consciència artificial. Així doncs, l’expressió IA va cobrar un nou significat i un extens àmbit de recerca científica va ser desprestigiat durant dècades.
La Diferència entre IAG i Consciència Artificial
Res garanteix que el
desenvolupament d'una IAG impliqui el sorgiment de la consciència artificial
o que es generi una consciència emergent, però aquesta tendeix a ser
considerada com la possibilitat més plausible.
La raó perquè es creu que l'existència d'un d'aquests conceptes probablement porta a l'altre deriva de com d'intrínsecament entrellaçades es troben la consciència i la intel·ligència general en els éssers vius.
Peter Voss, professional del camp de la IAG, justifica la coincidència fonamental de les qualitats necessàries per al desenvolupament, tant d'un sistema de IAG, com d'una consciència artificial afirmant que les persones posseïm "autoconsciència conceptual" (conceptes abstractes del jo físic i mental), característica que resultaria imprescindible en la IAG, ja que aquesta hauria de "poder conceptualitzar quines accions ha pres, [...] de quines accions és capaç, i quins són els seus efectes més probables".
Els Grans Models de Llenguatge (LLM)
Són models d'intel·ligència artificial entrenats amb grans
corpus de textos per a generar, completar o analitzar el llenguatge humà,
basant-se en correlacions estadístiques entre les paraules.
L’alineació
En intel·ligència artificial alineació fa referència al fet de garantir que un sistema de IA persegueixi objectius compatibles amb les intencions, els valors i els interessos dels éssers humans que l'utilitzen o implementen.
Problemes ètics i filosòfics amb l’IA i l’IAG
La creació i l'aplicació de la IAG crearia/ra nous problemes relacionats amb la posició que hauríem de prendre com a éssers humans davant un esser que, per la seva nova intel·ligència, podria no considerar-se solament com una màquina més.
Una altra incògnita és si aquestes màquines podrien aconseguir arribar a tenir consciència, és a dir una consciència emergent a partir de les interaccions que es produeixin dins del seu sistema complex que dona origen a la seva intel·ligència.
Al desembre de 2015 Sam Altman havia llançat amb Elon Musk un projecte per fer: “avançar la intel·ligència digital de la manera més beneficiosa per a tota la humanitat, sense estar limitats per la necessitat de generar guanys econòmics”.
En realitat, aquest projecte era una ofensiva contra Google, a la qual li van robar talents com Ilya Sutskever (co-creador de AlexNet, la xarxa neuronal profunda que va revolucionar el camp de la IA, i investigador estrella de Google Brain)
Per a marcar encara més la diferència, OPENAI es va constituir com una entitat sense ànim de lucre, de codi obert, basada en la col·laboració científica. Però OpenAI tenia un mecanisme de governança, dissenyat pel propi Altman, capaç d'acomiadar a qualsevol que posés en perill, amb el seu comportament la missió de promoure el desenvolupament d'una IAG que beneficiï a tota la humanitat.
Quan van crear OpenAI en 2015, van repartit accions entre els seus empleats, una pràctica comuna en empreses tecnològiques emergents per a atreure i retenir talent abans de poder permetre-li-ho. Però també com a mecanisme de motivació i de control del personal.
OpenAI va créixer ràpidament en la indústria de la intel·ligència artificial, gràcies al seu enfocament innovador i la seva capacitat per a atreure talent d'alt nivell. No obstant, el seu èxit no va estar exempt de controvèrsies. A mesura que la companyia s'expandia, van anar sorgint preocupacions sobre el seu impacte ambiental, l'ús de recursos i la propietat intel·lectual. Malgrat les seves declaracions d'un enfocament humanista i beneficiós per a la humanitat, la seva trajectòria mostrava una tendència cap a la centralització del poder i el control del mercat, afavorint als grans actors comercials.
Per a resoldre la dissonància cognitiva entre el seu èxit capitalista i la seva façana humanista, van posar a l'empresa sota el control d’una ONG, que va ser la que després va acomiadar a Altman.
Aviat a OPENAI van descobrir que entrenar models de IA era molt car, i en 2019 van fundar OpenAI Limited Partenariat, una entitat amb ànim de lucre capaç de guanyar diners i poder signar un acord comercial multimilionari amb Microsoft. A més d'una quantiosa inversió econòmica de 100M, el gegant els va oferir accés a Azure, la segona infraestructura de Núvol més gran del món, a canvi de poder integrar els seus models en assistents com Copilot o el cercador Bing. Aquesta col·laboració els va permetre rebentar el mercat amb un producte de codi tancat anomenat ChatGPT (30/11/2022) que es un chatbot de AI. El chatbot es un model de llenguatge especialitzat en el diàleg que s’ajusta amb tècniques de aprenentatge supervisat i aprenentatge de reforç.
En 2019, la transició de OpenAI a una entitat amb finalitats de lucre i la seva associació amb Microsoft van marcar un canvi significatiu en la seva missió original. L'accés a la infraestructura de núvol de Azure (Les 3 Co. de Cloud: Amazon Web Services AWS, Microsoft Azure, Google Cloud Platform GCP) i la integració dels seus models en productes comercials com Copilot i Bing van permetre a OpenAI llançar ChatGPT, un producte de codi tancat que va revolucionar el mercat.
Aquest creixement i èxit comercial van anar acompanyats d'una tensió creixent entre la seva missió declarada i les seves pràctiques empresarials. La companyia es va trobar en el centre de debats sobre la regulació de la intel·ligència artificial i la necessitat d'establir marcs legislatius que continguessin els possibles riscos de la super-inteligencia. Altman, per la seva banda, advocava per un enfocament regulador global, mentre que simultàniament s'oposava a normatives específiques com la llei europea de IA. Aquí apareix el concepte de Singularitat i emmarquem el posicionament de Harari.
S. Altman va explicar que la seva empresa planejava construir i alliberar sistemes cada vegada més perillosos i que necessitava dues coses per a garantir que la super-inteligencia succeís sense perill per a la humanitat: molts diners i legislació. Els diner ja li van arribar per Microsoft. Per la legislació Altman va començar a demanar un tractat de no proliferació de la IA, amb una agència que controlés el desenvolupament i ús de IA perquè no es pogués “auto replicar-se i auto-implantar-se” (amb això ja coincidia amb Elon Musk que demanava el mateix). L'escala de regulació i control deia que havia de ser planetària i que “els Estats Units l’havien de liderar, però perquè sigues efectiu, es necessitava una regulació global”. Però un tractat d'aquestes característiques afavoriria el monopoli dels gegants -Google, Meta, Microsoft, Anthropic i OpenAI, però tallaria les cames als models oberts i col·laboratius desenvolupats en universitats i laboratoris públics.
Mentre S. Altman ens advertia dels perills de la IA, demanant ser encotillat per un marc regulador comú, simultàniament estava desenvolupant una feroç campanya de pressió contra la llei europea de IA, a punt de ser aprovada pel Parlament Europeu.
La Llei de IA es un Reglament aprobado pel
PU el 13/3/2024 i que entrar en vigor 1/8/2024 en el marc de la estratègia
Década Digital 2030, amb l’objectiu d’introduir un marc normatiu i jurídic únic
pels sistemes de IA que operin en la UE. Aquesta és la primera llei en el mon
sobre IA.
Per argumentar aquesta proposta “salvadora” Altman utilitza un problema possible però imaginari: l'apocalipsi màquina, una hipòtesi coneguda com La Singularitat, per a tapar els problemes reals que ja estava generant la seva pròpia empresa, incloent-hi una despesa insostenible d'aigua, aire net i d’energia; més del robatori massiu de Propietat Intel·lectual.
The Blip
Segons Karen Hao, en el seu llibre Empire of AI, la directora de tecnologia de OpenAI, Mira Murati, ja havia compartit serioses preocupacions sobre el comportament «manipulador» i la falta de transparència de Altman amb els membres independents de la Junta. El dia 17 de novembre de 2023, el cap de laboratori de OPENAI, Ilya Sutskever, va informar a Altman (per Zoom) que la Junta directiva l’havia cessat com CEO perquè “was not consistently candid in his communications” i havien perdut la confiança en ell. Els empleats de OpenAI, furiosos i completament desconcertats per l'opacitat de la decisió, van reaccionar ràpidament i van amenaçar amb una fugida massiva cap a Microsoft. Satya Nadella, CEO de Microsoft, principal inversor de OpenAI amb més de 13.000 milions de dòlars compromesos, ràpidament va oferir contractar a Altman juntament amb qualsevol empleat que volgués seguir-li. Això ca provocar que, en una carta oberta signada per centenars de treballadors s’exigís el retorn de Altman i la dimissió en bloc de la junta directiva. Helen Toner, directora independent, va intentar mantenir la línia dura declarant que «si aquesta acció destrueix l'empresa, podria de fet ser consistent amb la missió», una afirmació que va alarmar encara més als empleats preocupats pels seus llocs de treball i pel valor de les seves accions.
En el període de tres dies que segueix a aquesta comunicació que es coneix en la mitologia de Silicon Valley com the Blip. la junta de OPENAI ja havia dimitit al complert i, el 29/11/2023, després de cinc dies de caos total, la junta va capitular. Altman va tornar triomfant com a CEO, amb una nova junta directiva que incloïa figures molt més amigables amb als seus interessos, com Greg Brockman, president; Larry Summers, exsecretari del Tresor com V.P.; Bret Taylor, expresident de Twitter i creador de Google Maps; Adam D’Angelo, Board; Mira Murati, Board.
Sutskever mai va tornar a l'oficina i finalment va abandonar l'empresa al maig de 2024, seguit per altres membres clau de l'equip de seguretat com Jan Leike, qui va criticar públicament a OpenAI per prioritzar «productes brillants» per sobre d'una cultura de seguretat responsable.
Aquesta crisi va revelar una cosa fonamental sobre com s'està configurant realment el futur de la intel·ligència artificial: les decisions més transcendentals les pren un grapat privilegiat d'individus en Silicon Valley, sovint a porta tancada i sota pressions econòmiques colossals provocant que OpenAI es transformes en un autèntic «imperi» on la grandiloqüent retòrica sobre «beneficiar a tota la humanitat» encobreix una set insaciable de poder, recursos i dominació de mercat.
Entre les seves tàctiques per a controlar els resultats, OpenAI va contractar, entre altres, l'empresa Sama de Kenya, en la que els treballadors cobraven una mitjana de menys de dos dòlars l'hora, construint un filtre automatitzat de moderació de contingut. Aquest cas no és únic perquè empreses especialitzades com Scale AI han perfeccionat aquest model, externalitzant meticulosament el «treball brut» perquè les grans tecnològiques puguin distanciar-se de tota responsabilitat mentre minimitzen costos de manera dramàtica.
En 10 anys OpenAI s'havia convertit en un dels negocis més tancats, lucratius i perillosos de Silicon Valley, exactament l'oposat del que van anunciar que anaven a fer. Avui Altman ha aparcat momentàniament l’hipòtesi de la singularitat per passar anunciar la imminent Intel·ligència Artificial General (IAG). En les seves paraules, “un sistema altament autònom que supera als humans en la majoria de treballs econòmicament valuosos” perquè és capaç de raonar, aprendre i adaptar-se com un ésser humà i treballar sense supervisió. Com amb tot, hi ha un objectiu ocult: independitzar-se de Microsoft perquè el seu contracte estipula que el vincle quedarà trencat quan aconsegueixin implementar una IAG.
Projecte Stargate 2025
The Stargate Project és una empresa USA de IA creada per OpenAI, Oracle, SoftBank i la signatura d'inversió MGX.
L'empresa planeja invertir fins
a 500 000 milions de dòlars als Estats Units fins al 2029. El projecte havia començat en 2022 i es
va anunciar el 21 de gener de 2025 pel president estatunidenc Donald Trump acompanyat per Sam Altman de OpenAI, Larry
Ellison de Oracle i Masayoshi Son de SoftBank que serà el CEO.
Donald Trump ho va
qualificar com «el projecte d'infraestructura de IA més gran de la història»,
en concret sobre la infraestructura energètica. El projecte va començar amb una
inversió de 100 000 milions de dòlars i podria arribar a 500 000 milions de
dòlars en 2029. No obstant això, Elon Musk,
CEO de xAI, competidor de OpenAI, va dir que l'empresa mancava del finançament necessari.
L'empresa està
construint actualment 10 centres de dades en Abilene, Texas. Pot
arribar a crear més de 100 000 llocs de treball als Estats Units. Altman ha dit
que SoftBank tindrà la «responsabilitat financera» de l'empresa i OpenAI tindrà la «responsabilitat operativa». Arm,
Microsoft, Nvidia, Oracle i OpenAI són els socis tecnològics inicials clau.
xAI
Elon Musk, va presentar al març de 2023 xAI, una nova companyia d'intel·ligència artificial l'objectiu de la qual serà "comprendre la veritable naturalesa de l'univers". Musk va fundar xAI recaptant milers de milions per a desenvolupar un competidor de OpenAI al que ha anomenat Colossus i l'ha instalar a Menphis. Colosus està alimentat per 100.000 unitats de processament gràfic (GPU) Nvidia H100, i té previst duplicar la seva grandària a 200.000 xips en els pròxims mesos. D'aquest total, 50.000 seran els més potents H200 de Nvidia.
Aquest Colossus té com a objectiu principal l'entrenament del pròxim Gran Model de Llenguatge (LLM) de xAI, anomenat Grok, que busca competir amb el GPT-4 de OpenAI. Musk va avançar que esperen llançar Grok-3 per a desembre. tot això es produeix en un context en el que la competència en l'àmbit de la IA inclou també a Meta, que juntament amb OpenAI també compta amb centenars de milers de xips Nvidia.
Inicialment xAI va utilitzar dades i centres de dades de X, a més d'integrar el seu xatbot de Grok en els feeds de X. Actualment xAI s'enfronta a un desafiament legal liderat per la NAACP sobre la contaminació de l'aire de les seves instal·lacions de supercomputadors a Memphis.
Musk porta avisant des de fa anys del risc que suposa per a la humanitat el desenvolupament de la IA sense supervisió. Va arribar a demanar, amb altres experts i empresaris tecnològics, que se suspenguessin i regulessin els avanços de la IA, però alhora estava preparant el seu propi programa basat en aquesta tecnologia.
Megafactorias
El projecte anunciat el 20 de juny 2025 de construcció d'una Megafactoria de GPUs a Mora la Nova. fa referència a una gigafactoria de IA que és com un centre de processament de dades, però a una escala molt major. Consumeix fins a cinc vegades més energia que un centre de dades convencional per la seva alta densitat de càlcul i la seva demanda de refrigeració, a més de la molt gran demanda de electricitat que genera.
El projecte de la Gigafactoría d’AI, està previst que estigui equipada amb unes 100.000 GPUs. Quan s’aprovi, per dur-ho a terme es crearà un consorci públic-privat en el qual inicialment participaran Telefónica, ACS, MasOrange, Nvidia, Submer, Multiverse Computing i la Societat Espanyola per a la Transformació Tecnològica (SETT). La gigafactoria serà capaç de processar dades per a plataformes d'intel·ligència artificial (com ChatGPT i tots els seus homòlegs) i vendrà els seus serveis a empreses i administracions públiques europees que necessitin explotar aquesta tecnologia, tal com ara fa el Barcelona Supercomputing Center.
La computació accelerada per GPU és l'ús d'una unitat
de processament de gràfics (GPU, per les seves sigles en anglès) al costat
d'una CPU per a accelerar el funcionament de les aplicacions d'aprenentatge
profund, anàlisi i enginyeria. Avui dia, els acceleradors de GPU, una innovació
de NVIDIA allà pel 2007, permeten el funcionament de centre de dades amb
eficiència energètica en laboratoris governamentals, universitats, empreses, i
petites i mitjanes empreses a tot el món. Tenen un paper molt important en l'acceleració
d'aplicacions en plataformes, que abasten des de la intel·ligència artificial
fins a automòbils, drons i robots.
Ambdós, les CPU (Unitats de Processament Central) i les GPU (Unitats de Processament Gràfic) són unitats de processament en un ordinador, però tenen arquitectures diferents i estan dissenyades per a realitzar diferents tasques. Les CPU són processadors de propòsit general optimitzats per a tasques seqüencials complexes, mentre que les GPU estan especialitzades per al processament paral·lel de tasques més simples, especialment en gràfics i altres càrregues de treball intensives en dades, per això s’utilitzen grans quantitats treballant conjuntament.
|
|
|
Organització sense ànim de lucre Codi obert i amb benefici de tota la humanitat Laboratori d’investigació oberta en col·laboració amb Universitats i Co. OpenAI llança Universe, una plataforma de programari per a mesurar i entrenar la intel·ligència general de la IA en tot el subministrament de jocs, llocs web i altres aplicacions del món |
Març 2019 Alman CEO OPENAI Empresa hibrida: sense i amb afany de lucre Codi tancat 2022 crea ChatGPT - Generative Pre-trained Transformer 2019 Acord amb Microsoft de 100M Acomiadament d’Altman (The Blip) 2023 nou acord Microsoft ara de 10mil M Els sistemes informàtics de OPENAI s’executen en la super-plataforma de computació d’Azure Accionariat OpenAI: Microsoft (49%), Inversors de Capital risc (Thrive Capital y SoftBank) i Nvidia i Junta directiva |
Proj. Stargate/Trump Liberarse Microsoft 500mil M Acceso a AZURE |
Girona, juny 2025
No hay comentarios:
Publicar un comentario