Patrick Bryden welcomes Digiconomist founder Alex de Vries-Gao to discuss AI’s rising energy demands and
sustainability implications.
32 min watch
Episode summary:
In this special episode of Market Points, Patrick Bryden, Managing Director, Global Head of Thematic and Sustainability Investment Research at Scotiabank, speaks with Alex de Vries-Gao, Founder of Digiconomist, about the fast-growing energy demands of artificial intelligence. Drawing on his recent research, Alex explains the challenges of quantifying AI’s power consumption, the gaps in corporate disclosure, and the environmental implications as AI usage expands. Together, they explore how the rapid rise of AI is reshaping global electricity demand and what this means for policy, sustainability, and innovation moving forward.
32 min listen
About Alex de Vries-Gao
Alex de Vries-Gao is a PhD candidate at the VU Amsterdam with the Institute for Environmental Studies and the founder of Digiconomist, a research and consultancy firm dedicated to uncovering the unintended consequences of digital trends.
His research focuses on the environmental impact of emerging technologies and has played a significant role in the global discussion on the sustainability of blockchain technology and artificial intelligence (AI). His publications are frequently cited in (inter)national media such as the New York Times, BBC, and CNN. In addition, his work is used by (public) institutions and governments, including the International Energy Agency, the European Parliament, and the White House.
Alex previously worked at the Experience Center (EC) of PwC, one of the Big Four management consultancy firms. The purpose of the EC is to help clients lay the foundation for digital transformation through agility, the lean-start-up method, and design thinking. The end user experience is always kept at the heart of this process. As part of the Emerging Technologies team, Alex focused on researching (and experimenting with) digital developments such as AI and incorporating these into the transformation processes of various clients. Although Alex is enthusiastic about the possibilities that new technologies can offer, he also promotes the philosophy that you should always start with the customer experience and work backward to the technology.
Alex regularly speaks at international conferences and events such as CeBIT, VivaTech, and GITEX on emerging technologies and their societal impact. For example, he explains what the ecological footprint of digital applications entails, how to calculate it, and how an organization can responsibly handle new technology. His lectures provide realistic expectations regarding these technologies and inspire his audience to innovate in a sustainable manner.
Announcer: You’re listening to the Scotiabank Market Points podcast. Market Points is designed to provide you with timely insights from Scotiabank Global Banking and Markets’ leaders and experts.
Patrick Bryden: Welcome to Market Points. I’m Patrick Bryden, Managing Director and Global Head of Thematic and Sustainability investment Research at Scotiabank. Thanks for tuning in. Alex de Vries-Gao is the founder of Digiconomist, which seeks to highlight the unintended consequences of digital trends, and his work has been featured in academic journals as well as widely quoted in media such as the BBC News, the New York Times, and Newsweek.
With Alex’s insights, we will dig into how he’s endeavoured to quantify the growth in energy usage for AI and how we should think about the implications from ongoing momentum. Obviously, these matters are complex, and I’m delighted to have Alex join us to help us simplify and understand the key insights from his work.
Alex de Vries-Gao: Thank you for having me.
PB: So, we’re in Amsterdam today, and I want to thank you for taking the time to meet with me in person. I’d like our audience to get to know you a bit better. So can you please tell us a little bit about yourself?
AdV: Yeah, of course. Well, you know, I’ve been doing research in emerging technologies for about a decade now.
I first launched my website, Digiconomist, back in 2014, and I initially started writing about the risk of investing in cryptocurrencies, but then that quickly evolved into writing about the sustainability of digital assets and later just the sustainability of emerging technologies as a whole.
Most recently talking about artificial intelligence, of course. Yeah, you can say this hobby got out of hand tremendously because it’s not just a hobby anymore. It evolved into more than a dozen academic research papers. I’m doing a PhD on this topic as well. Digiconomist itself is no longer just a website. It’s also my own private company. So, yeah, I’ve been working and answering questions about emerging tech sustainability for a very long time now.
PB: So let’s jump into the recent article you published. For our listeners’ benefit, it’s called “Artificial Intelligence: Supply Chain Constraints and Energy Implications”, and that’s in a peer reviewed scientific journal called Joule. What was it that you were going after here?
AdV: Yeah, well that’s very simple.
I was just trying to highlight, or find out, the total power demand of AI globally, and that was really what I was looking for and I managed to find it, so-
PB: I love how the article starts, and I think that I can really relate to this through our work at Scotiabank as well. But, initially you highlight that there’s kind of an opacity issue.
So, there’s an evolving nature of corporate disclosures here, and then there’s also, in parallel, an evolving nature of government regulations with respect to AI. And I’m wondering if you can give us a sense for the current state of play you’re seeing on this front and the challenges of analysis that it creates.
AdV: You could think like, hey, this should be an easy to answer question. What’s the total power demand of AI? Because what’s happening is that these tech companies are using specialized equipment to work on these applications. And they know exactly how much of that equipment they have, and they know exactly how much power that equipment is consuming.
So it, you know, it could just be a matter of, you know, them publishing this information like, hey, our AI servers are consuming this much power. You add this number up for all of the big tech companies and you’ll have a pretty good indication of the total power demand of AI systems. Yeah, things could be that simple, but of course they’re not because they’re not disclosing these numbers.
PB: Right.
AdV: So, if you look at the environmental reports of the tech companies, they will disclose their total power demand, and they will point to AI as the reason that their total power demand is increasing. So, we can see the total power demand is going up. But then they never specify what part is due to AI.
And they even explicitly state like, yeah, we’re not going to provide this information, we don’t find it meaningful, or whatever reason. And that’s a problem because if they’re not giving this information, you need to start thinking about other ways to obtain it. And they are giving strong signals that the numbers involved are big.
How, well you can, first of all establish that the total power demand of these tech companies is increasing significantly, and as they’re pointing to AI as the reason for that, that’s one important signal.
PB: For sure.
AdV: You also see media headlines appearing that these companies are having real trouble finding enough power capacity to power their demand for their AI applications. essentially.
Google was even talking about a power capacity crisis at some point. I think Sam Altman is commenting all the time like, hey, we don’t have enough power to continue developing AI
PB: Yeah, for sure.
AdV: These are very strong signals, like numbers are getting out of hand very fast, but we’re not really getting the data from the tech companies themselves.
So they’re big. But we don’t know exactly how much, so we need to find this out in a different way. And that’s what I’ve been trying to do.
PB: I really love how you went about that. Like to me that’s what’s very attractive about the work is, at a high level, you have, or we have, a challenge of not necessarily enough corporate disclosure.
And it, you know, it’s, it’s always, it’s not always that we want more and more disclosure, it’s we want better disclosure. And then we have government regulations that maybe aren’t also dovetailing with that to give us a complete picture of what the AI power draw is. And so the manner in which you’ve attacked this is to go bottom up.
AdV: Yeah.
PB: And as you’ve outlined, the information that you can get from Taiwan Semiconductor Manufacturing Company, or TSMC, you triangulated that with what Nvidia does, and I think you also mentioned AMD, where I think you were able to piece together over half — maybe approaching two thirds of what you needed to know about the bottom-up kind of almost physics of what’s creating the power draw.
So, maybe walk us through how you kind of gross that up when you think about Google and others, to get a complete picture of AI systems.
AdV: Yeah, well there’s indeed, when you look at Nvidia and AMD, it’s quite easy to get information regarding their chip design because yeah, these are publicly available devices.
Anyone can buy them. Okay, they’re not cheap, but yeah, you get the picture.
PB: Yeah.
AdV: But there’s also custom solutions like Google’s Tensor Processing Units. They are, you know, they’re, they’re, they’re in-house things. They don’t sell these.
PB: Yeah. So we can’t see what that really is in the same way that we could see TSMC, Nvidia, AMD, right?
AdV: Exactly, it’s a bit of an issue. So, how we know that Broadcom is taking a lot of TSMC’s packaging capacity, which is ultimately used for Google, so Broadcom as Google’s partner for making their Tensor Processing Units.
PB: Yep.
AdV: We can estimate, yeah, how much Nvidia and AMD are using, and then we don’t have any good insights in what’s happening at this other, like maybe 40%.
But the thing is, when you look at the 60% we do have available, you’ll notice like, everything there is maximized. So the chips — they’re using their maximum dimensions — they’re making these chips as large as possible.
PB: Yeah.
AdV: And this is a certain thing that is likely also the case for the part that is not visible.
At some point it becomes pretty likely that ultimately that if you can figure out 60%, if you want to get to a hundred percent, if you have the power demand for that 60%, it likely just correlates with, ultimately the power demand ultimately correlates with the packaging capacity that’s available.
PB: Right.
AdV: Simply because everyone is kind of using similar specifications for the chips that they’re making.
PB: I guess what’s really interesting to me is how you connect that to the power. So, once you’ve illuminated the fundamental building blocks from your bottom up work. I think it’d be very helpful for our audience to understand how you then further built this up to imply the complete picture for AI and what the estimated power demand is in recent years, today, as well as when you look out in time.
And I guess I want to add that I particularly appreciated how you tried to relate these figures in scale. So, you give us a sense for what do these numbers look like as a component of total data centers globally. You’ve touched on Bitcoin mining and so you’ve been able to relate it to the size of that. And then, I think what’s very tangible for a lot of the readers would be just the entire power draw versus the demand picture for various countries.
AdV: Well, essentially if you want to get numbers on the AI power demand, it could be as simple as just aggregating the number from, provided by, the big tech companies.
If they did, they know exactly how many of these specialized equipment they have, like I said.
PB: Yeah.
AdV: And they could provide it, but they don’t. So, you need to take this massive detour. But then, okay, once you do take this massive detour, like I did, I was able to find out like the power demand of AI by the end of last year was already as much as, well my home country, the Netherlands is consuming.
PB: Amazing.
AdV: And then you’re talking about a number that is already 20%, represents 20%, of global data center power demand. And this is a huge increase, thinking about, you know, this happens in a two-year time span. Like the AI hype started like at late 2022, start of 2023, and two years later AI is responsible for 20% of global power demand.
And then I was also able to kind of look forward already a little bit because we already know what the packaging capacity of TSMC is gonna look like this year, and we can already say something about, okay, this might mean that if the supply keeps being utilized in full for this whole year then by the end of this year we’re not going to be talking about 20% of data center electricity consumption anymore, but we’re actually gonna be approaching half of data center electricity consumption and just during the course of this year will add another “the Netherlands”—
PB: Right.
AdV: —in power consumption for AI. So that’s actually, that’s massive.
The International Energy Agency was also recently doing some numbers on this, and they were highlighting like, okay, in the coming years, data centers are going to be growing to a point where they’ll be responsible for 3% to 4% of global electricity consumption.
They were still, a little bit more optimistic on AI energy consumption. They kind of put this at like 15%, but then if you dive into like how do they get to 15%? You can’t really tell, because everything, all the sources they use, everything is like, you know, it’s based on proprietary information from all kinds of different analysts.
And then you can’t really do any—
PB: Back testing.
AdV: You don’t really know how things work over there. And also the trend that they show does not match confirmed statements from TSMC. Like if TSMC says, hey, our production capacity is doubling this year, and you expect that that power demand at the end of the line is also going to be doubling.
But in any case, the International Energy Agency, they did say like, okay, AI is going to be a primary driver, and I think if you look at my research next to that, you’ll figure like, okay, that’s true, and actually things are gonna be worse than anticipated. Simply because the growth in AI is actually faster than what was outlined by the International Energy Agency.
Especially if we already get to AI representing half of data center electricity consumption this year. By the way, when we’re saying half of data center electricity consumption, I do want to emphasize that this is data center electricity consumption, excluding cryptocurrency mining. So it’s, that’s also still happening on the side there, and it’s also still significant.
So, if we look at, for example, Bitcoin mining today. Bitcoin is still responsible for consuming 200 terawatt-hours of electrical energy annually, which is by itself also close to half of what data centers were consuming last year.
PB: Yeah, and again, in terms of country scales, it was approaching, you know, probably two-thirds of the United Kingdom and maybe half of France, something like that.
AdV: Yeah, indeed. If you’re at 200 terawatt-hours of electrical energy consumption, you just consider that like the UK is at like 260 TWh annually, so you’re getting pretty close to that.
PB: Yeah.
AdV: And then total data centers, again excluding cryptocurrency miners, were like 415 TWh. If you add another 200 TWh on top of that from crypto mining, you’re already at more than two times the UK—
PB: Yeah.
AdV: —in total power demand for data centers, also including AI plus cryptocurrency mining. And this number is just going up really rapidly. So, this is also why the International Energy Agency was outlining like, hey, you know, if this growth continues, just a couple of years, all of this will match the power consumption of a country like Japan, right?
So, we’re gonna get there really soon. And that’s does really well, because if you think about data center power demand during the previous decade, it’s actually been extremely stable. And if you take out cryptocurrency mining and AI it could actually still be pretty stable to date.
PB: When we think about environmental implications, what do you think the consequences might be?
I mean, we’re living in a world where there is concern about emissions, water, water stress, droughts, extreme weather for that matter. How do you think about this as you’ve stepped through the work?
AdV: So, it’s actually really hard to make the immediate translation to environmental consequences simply because once you have a number for the total power demand of AI, putting a number in terms of carbon emissions on there, or water consumption, is going to be very hard because we still don’t know where these servers are ending up at. And of course it matters a lot that, hey, if your servers are gonna be powered by a combination of solar and wind, it’s a completely different story than when they’re gonna be providing, getting power from a coal-based power plant.
PB: Right, the backing of energy grids differs by jurisdiction.
AdV: So, you can’t, it’s not easy to put a number on this. You can make some generic statements about what is likely going to be happening here, because as we are boosting our total power demand, how this is taking place on a grid where renewable energy capacity is limited.
You know, first of all, our total power capacity is limited. And then, the renewable percentage of that is also, you know, typically a smaller share. So, in Europe and the US, I think if you look on the, at the power grids, on average, you’re talking about like 20%, 25% renewable energy. And we are prioritizing those renewables.
So, we’ve already been in an energy transition for the past years, and that means we use green energy as much as we can. But if we are facing a sudden increasing power demand, that also means that that increase is not going to be powered with renewables because we’re already using those as much as we can.
And that typically means that we’re gonna be using the infrastructure that we’ve been trying to abandon in recent times, which is still available for use, being fossil fuels, to power this additional demand. That’s the backup source that we have. So, this is just a very generic effect of any major increase in power demand typically increase our short-term reliance on fossil fuels.
There’s also a lot of water being consumed to generate that power as well. So, if you’re generating power from fossil fuels, you’re also using cooling systems. And actually, I think it’s very common to use at least a litre of water to generate a kilowatt hour of energy. So, that actually, means that if you are increasing your power demand by a whole lot, and you’re gonna be using fossil fuels, to meet that demand, you’re not just increasing carbon emission, but you’re also increasing your water consumption at the same time.
PB: When you think about those consequences, I mean, obviously there’s local considerations as well. So, you know, I know you’ve thought about this a little bit as well.
How would you contemplate that?
AdV: Yeah, data centers can have quite an impact at a local level. I think of very obvious consequences. Typically the energy prices are going to go up and this is simply due to the laws of supply and demand.
If your power supply is limited, and suddenly your power demand goes up, now energy prices go up. This is very basic economics. But that’s one thing.
Another thing is that, depending on the situation locally, if a coal-based power plant is being revived for powering the data center that happens to be put in your backyard, think about what that means for local climate targets.
You’re probably going to be facing additional consequences from air pollution simply from being near the source of power generation. I mean, it’s the difference between not having the coal plant running at all, or having it put all kinds of dangerous substances in the atmosphere, and not just CO2.
PB: When you think of mitigating these issues, how can we seek to manage them, and sort of, you know, take care of some of these effects?
AdV: That’s the question. So, what do we do about it? But then the thing is, what I’ve been telling a lot of people about is that, well, if you wanna start doing something about this, you really need better data first, because it’s really hard to make good policies if you don’t really know exactly what’s going on.
You have to make a massive detour just to be able to figure out what is going on at a global scale here, but what does that mean for your local policies? As long as you’re not getting better data, I think it’s really near impossible to make any good policies about it.
PB: Yeah, I would echo that.
I mean, as an analyst, and it’s not just this issue, as I said before, it’s not always, we want more data, it’s we want better data. We want useful information.
AdV: Yeah, exactly. And it could be it, well, I’ve already explained this during our conversation, it could be very simple that tech companies have exactly what we need at very granular level but they’re not providing it. So, you know, the obvious thing to do would be, you know, making sure, encourage, those companies to start providing this information.
There was one company that did a couple of years ago. Google published some numbers on their AI-related power demand over the years 2019-2021, and they published this in 2022. This was the last time they published this type of information before the AI hype.
And then they said a few things, they said, first of all, like AI at the time was 10% to 15% of their total power demand — extremely useful information, by the way — but they also specify that 60% was for inference and 40% was for training of AI models.
PB: Right.
AdV: This is the only concrete number we have, and we don’t know how this has evolved. We do know that ever since there’s been mass adoption of AI and now everyone’s using this model, so it’s highly likely that the percentage had the weight on the inference, which was already responsible for a majority before the AI hype, is way larger now.
So, now we’re maybe talking 80%, 90% energy consumption from AI in the life cycle of an AI model, and only maybe 10% to 20% due to training. So, hey, if you’re going to be mandating disclosure on that training costs, you’re only going to get a very minimal part of the total picture.
And that’s when this regulation finally starts applying. So it might be soon, it might be taking another two years.
PB: Yeah.
AdV: And the rest, the inference part, that’s left to voluntary disclosure, and we already know how that’s going. That’s not going well.
PB: As companies are maybe signaling that they want to reduce emissions and get to net zero or some interim milestone, those charts kind of go down and to the right.
AdV: Yeah.
PB: And then if we’re looking at the trend of increased energy intensity due to a busy economy, due to global conflict, due to geo-economic pressures, et cetera, et cetera. And then we’ve got Bitcoin and AI layered in on top of this. Those pressures on those emission numbers for a lot of the big tech companies are going up and to the right.
AdV: Yeah.
PB: So they’re going in the opposite direction. What do you think gives there?
AdV: Yeah, well this has been very obvious. I mean, all the big tech companies are reporting like increasing carbon emissions while they have net zero goals in 2030.
Coming from 2020, they only managed to go up in terms of carbon emissions rather than going down to their net zero target. I think this is a very clear indicator that growth is just being prioritized over the environmental performance here. This type of stuff is putting pressure on the emissions reporting of the tech companies.
It’s not just the operational power consumption. Also think about, the carbon cost of manufacturing this hardware in the first place, the Scope 3 emissions in their environmental report which are also really big. Also, think about the construction cost of data centers. Constructing data centers in itself is also a big environmental cost.
Obviously, we don’t know how or what is the ratio between all of this because we’re not getting that type of disclosure. So, but we do know that this is all contributing to why the numbers that are being shown in the environmental reports of the tech companies are, you know, they’re not good.
The carbon emissions are going up, and if you read the environmental reports of the tech companies, they’ll say like, ah, don’t worry about it, yeah, we know the numbers are going up right now, but, you know, we’re working on making the hard and software more efficient. And also AI is gonna contribute to a better planet, so that will offset the extra cost that we have at the moment.
Those are the very typical excuses that we see, excuses simply because there’s a lot of wishful thinking, how we can see that there is a real world impact. Right now this is obvious from the numbers.
PB: Yep.
AdV: And then this might be compensated later with some to-be-developed application, no guarantees.
Even if that is the case, you always have to consider rebound effects, how we can always make things more efficient, but—
PB: Yes.
AdV: —making goods or services more efficient also typically has an effect of increasing demand for goods and services. So—
PB: Right.
AdV: —and we call it the Jevons Paradox.
When your total resource use ends up being higher than what you started out with due to the increasing demand, this is actually a very typical—
PB: Right. And for our listeners, to make that tangible, it’s like if you put up Christmas lights and you get more efficient lights the answer typically for most people wasn’t to just use the same amount of Christmas lights in North America. You’d use way more. right?
AdV: Yeah, consider that we are also seeing this Jevons Paradox at a massive scale in AI already, because in the past few years it’s not like the hard and software for AI haven’t been getting more efficient. Actually, they’ve gotten whole lot more efficient.
PB: Yep.
AdV: But at the same time, the models that are being used, they went from millions of parameters to billions, and now we’re even going to trillions of parameters.
So, we’re using the efficiency gains to make the models bigger.
PB: Right.
AdV: Better, because bigger is better in this case, which has also triggered mass adoption of this technology because, hey, these models are now performing good enough that, yeah, a lot of people want to use them, yet this combination is what’s driving up to the power demand of AI to, you know, the numbers that we’re seeing today.
So, it’s actually because of the efficiency gains that we’ve had in recent years that AI is now as successful as it is, and going up in numbers so fast. So, yeah, let’s not put too much trust in that efficiency gains will just make this go.
PB: So human behaviour is such that if we find efficiencies, we don’t do, you know, the same or less with that original input, we do more.
AdV: Yeah, exactly. Yeah.
PB: We consume more because there’s more capacity to do more. You know, it strikes me as a really interesting time when we think about the big tech companies because I think that in many respects, a number of them deserved a fair bit of credit for trying to show leadership in some of their ambitions in dealing with these environmental issues that they’re moving along with.
You know, we had companies signal that they wanted to reach net zero. We had some even take it further and say they want to reduce historical emissions to go to like a net negative number. And obviously as you come down the path, life is always more complicated than you think. And you have, you know, the Russia-Ukraine War, you’ve got inflation, you’ve got this emergence of this technology.
So, I find that some of those big tech companies are now trying to reach for other options. You know, we’ve come from a world of, let’s call it energy transition, to what’s now referred to by many leaders as energy addition. Where, as you touched on, if it’s not just a case of powering this with renewables in an ideal world, then we need to bring in other forms of energy and traditional forms of energy like natural gas or oil or coal.
How do you think that these companies are going to manage this? I mean, I think some have signaled that they are taking steps to move into nuclear. Trying to find other forms of power. Is there a solution here that’s obvious to you, or you think it’s gonna be pretty challenging?
AdV: Not really. The thing is, you know, you can think about nuclear power, but realistically, nuclear power, if you happen to have a nuclear facility that’s ready to be revived, then maybe you can use that, that’s a carbon-free electricity source. But think about what does it mean to revive a nuclear facility? How the reason they get closed is because they’re outdated. So, this is already not easy.
PB: Takes a long time to build them. We’ve done some pretty detailed looking at those patterns. You cannot snap your fingers and build these things.
AdV: No, I mean, this is indeed, you can talk about reviving nuclear facilities that have been shut down. There’s not much viable candidates for that. And then you can talk about building out new renewable infrastructure, which is, well, it’s one that’s very expensive too. It takes a very long time to build out this infrastructure. So, in some cases, it can easily take a complete decade to just complete a construction project like this.
At some point we saw Sam Altman in the U.S. advocating that the U.S. start investing in certain, in a certain number of five gigawatt data centers. Five gigawatt, that’s the complete output of a nuclear reactor. I mean, where are you going to put that?
If you look at a power grid like Texas, you’re talking about a power supply that’s 80 gigawatt, but that power grid is extremely strained. It’s not like they can just, you know, you can’t really fit anything more on it, they’re already having capacity issues at certain times of the year, so you’re not going to be able to fit in an extra five gigawatt of power demand and no way.
PB: You participated in our Sustainability Summit recently, our seventh annual. Really appreciate you taking the time to do that.
One of the things you hit on that I thought was really well said, and really kind of eloquent, was that when you look at the usage of AI and again, I’m gonna use the umbrella term as you suggested, obviously there’s a lot of different uses, but you see a lot of use cases where they’re probably not necessary.
AdV: Yeah.
PB: Right? Could you expand on that a little bit, because I thought that was really interesting.
AdV: Yeah. Now this is like a more general thing you can observe with all emerging technologies, like when they appear on the stage, everyone gets super excited.
They all have overblown expectations and they completely lose eye for all the costs associated with these new technologies. You know, just a couple of years ago we had this with blockchain and we we’re going to put a blockchain on everything, even healthcare — completely ridiculous. You know, but that’s just what happens when you’re in a hype.
Also, we saw Facebook go all in on VR, called Meta for a reason now, it’s not like nowadays we’re using VR for everything. And I think everyone feels like VR, okay, we definitely don’t need that for every use case.
PB: Yeah, right.
AdV: So, more often it’s very helpful to, when you’re trying to innovate, to just really take a step back and really think about like, what is the actual challenge we’re trying to tackle here?
Like, where’s the friction in the whole system and what’s the best fit solution for there, given all the technologies that are available. You know, don’t just go around with like, okay, now I have a large language model. Then it really becomes like, hey, you know, I have a hammer. I start looking for nails, you know?
PB: Right.
AdV: Always try to take a step back. You know, responsible innovation is really, I think trying to just find the best fit solution. And 9 out of 10 times probably it’s not gonna be artificial intelligence. And 99 out of 100 times it’s not gonna be a blockchain.
These technologies have their own limitations.
PB: Alex, thanks for joining us today. We’re really grateful for all your insights, and we wish you well with your work here in Amsterdam and beyond.
AdV: Thank you for inviting me and a pleasure to speak.
Announcer: Thanks for listening to Scotiabank Market Points. Be sure to follow the show on your favourite podcast platform. And you can find more thought leading content on our website at gbm.scotiabank.com.
La transcription suivante a été générée à l'aide de la traduction automatique.
Présentatrice : Vous écoutez le balado Le point sur les marchés de la Banque Scotia. La série de balados elle vise à vous présenter les perspectives des leaders et experts des Services bancaires et marchés mondiaux de la Banque Scotia.
Patrick Bryden: Bienvenue à Market Points. Je suis Patrick Bryden, directeur général et responsable mondial de la recherche en investissement thématique et durable chez Scotiabank. Merci de nous écouter. Alex de Vries-Gao est le fondateur de Digiconomist, qui cherche à mettre en lumière les conséquences inattendues des tendances numériques. Son travail a été publié dans des revues académiques et largement cité dans les médias tels que BBC News, le New York Times et Newsweek.
Grâce aux perspectives d’Alex, nous allons explorer comment il a tenté de quantifier la croissance de la consommation énergétique liée à l’IA et comment nous devrions envisager les implications de cette dynamique continue. Évidemment, ces sujets sont complexes, et je suis ravi qu’Alex soit avec nous pour nous aider à simplifier et comprendre les principaux enseignements de ses travaux.
Alex de Vries-Gao: Merci de m’avoir invité.
PB: Nous sommes aujourd’hui à Amsterdam, et je tiens à te remercier d’avoir pris le temps de me rencontrer en personne. J’aimerais que notre auditoire apprenne à mieux te connaître. Peux-tu nous parler un peu de toi ?
AdV: Oui, bien sûr. Eh bien, cela fait maintenant une dizaine d’années que je fais de la recherche sur les technologies émergentes.
J’ai lancé mon site web, Digiconomist, en 2014. Au départ, j’écrivais sur les risques liés à l’investissement dans les cryptomonnaies, mais cela a rapidement évolué vers des articles sur la durabilité des actifs numériques, puis sur la durabilité des technologies émergentes dans leur ensemble.
Et plus récemment, bien sûr, sur l’intelligence artificielle. On peut dire que ce passe-temps a pris une ampleur considérable, car ce n’est plus juste un passe-temps. Cela s’est transformé en plus d’une douzaine d’articles de recherche académique. Je fais aussi un doctorat sur ce sujet. Digiconomist n’est plus seulement un site web, c’est aussi ma propre entreprise privée. Donc oui, je travaille et je réponds à des questions sur la durabilité des technologies émergentes depuis très longtemps maintenant.
PB: Passons à ton article récent. Pour nos auditeurs, il s’intitule « Artificial Intelligence: Supply Chain Constraints and Energy Implications », publié dans une revue scientifique à comité de lecture appelée Joule. Qu’as-tu voulu explorer dans cet article ?
AdV: Oui, c’est très simple.
Je voulais simplement mettre en lumière, ou découvrir, la demande énergétique totale de l’IA à l’échelle mondiale. C’est vraiment ce que je cherchais, et j’ai réussi à la trouver, donc—
PB: J’adore la façon dont l’article commence, et je pense que je peux vraiment m’y retrouver à travers notre travail chez Scotiabank. Tu soulignes d’abord qu’il y a une sorte de problème d’opacité.
Il y a une évolution dans la manière dont les entreprises divulguent leurs données, et en parallèle, une évolution dans les réglementations gouvernementales concernant l’IA. Peux-tu nous donner un aperçu de l’état actuel des choses sur ce front et des défis que cela pose pour l’analyse ?
AdV: On pourrait penser que c’est une question facile à répondre : quelle est la demande énergétique totale de l’IA ? Parce que ce qui se passe, c’est que ces entreprises technologiques utilisent des équipements spécialisés pour travailler sur ces applications. Et elles savent exactement combien d’équipements elles possèdent, et combien d’énergie ces équipements consomment.
Donc, en théorie, elles pourraient simplement publier cette information : « Nos serveurs IA consomment tant d’énergie. » On additionne ces chiffres pour toutes les grandes entreprises technologiques, et on obtient une bonne estimation de la demande énergétique totale des systèmes d’IA. Oui, les choses pourraient être aussi simples, mais bien sûr, elles ne le sont pas, car ces chiffres ne sont pas divulgués.
PB: Exact.
AdV: Si vous regardez les rapports environnementaux des entreprises technologiques, elles divulguent leur consommation énergétique totale, et elles désignent l’IA comme la raison de l’augmentation de cette consommation. Donc, on voit que la demande énergétique totale augmente. Mais elles ne précisent jamais quelle part est due à l’IA.
Et elles déclarent même explicitement : « Nous ne fournirons pas cette information, nous ne la jugeons pas pertinente », ou pour une autre raison. Et c’est un problème, car si elles ne donnent pas cette information, il faut commencer à réfléchir à d’autres moyens de l’obtenir. Et elles envoient des signaux forts indiquant que les chiffres en jeu sont importants.
Comment ? Eh bien, on peut d’abord établir que la demande énergétique totale de ces entreprises technologiques augmente de manière significative, et comme elles pointent l’IA comme la cause, c’est un signal important."
PB: Absolument.
AdV: On voit aussi des titres dans les médias indiquant que ces entreprises ont du mal à trouver suffisamment de capacité énergétique pour alimenter leurs applications d’IA.
Google a même parlé à un moment donné d’une crise de capacité énergétique. Je pense que Sam Altman commente régulièrement en disant : « Nous n’avons pas assez d’énergie pour continuer à développer l’IA.
PB: Oui, tout à fait.
AdV: Ce sont des signaux très forts, les chiffres deviennent incontrôlables très rapidement, mais nous n’obtenons pas vraiment les données directement des entreprises technologiques.
Donc, c’est énorme. Mais on ne sait pas exactement combien, alors il faut le découvrir autrement. Et c’est ce que j’ai essayé de faire.
PB: J’adore vraiment la façon dont tu t’y es pris. Pour moi, c’est ce qui rend ton travail si intéressant : à un niveau élevé, on a un défi lié au manque de divulgation de la part des entreprises.
Et ce n’est pas toujours qu’on veut plus de divulgation, c’est qu’on veut une meilleure divulgation. Et puis il y a les réglementations gouvernementales qui ne s’alignent pas forcément avec ça pour nous donner une image complète de la consommation énergétique de l’IA. Et donc, la manière dont tu as abordé cela, c’est en partant du bas.
AdV: Oui.
PB: Et comme tu l’as expliqué, les informations que tu peux obtenir de Taiwan Semiconductor Manufacturing Company, ou TSMC, tu les as triangulées avec ce que fait Nvidia, et je pense que tu as aussi mentionné AMD, où tu as pu reconstituer plus de la moitié — peut-être près des deux tiers — de ce que tu devais savoir sur les bases physiques de la consommation énergétique.
Donc, peux-tu nous expliquer comment tu extrapoles cela quand tu penses à Google et aux autres, pour obtenir une image complète des systèmes d’IA ?
AdV: Oui, en effet, quand on regarde Nvidia et AMD, il est assez facile d’obtenir des informations sur la conception de leurs puces, car ce sont des appareils disponibles publiquement.
Tout le monde peut les acheter. Bon, ce n’est pas donné, mais vous voyez l’idée.
PB: Oui.
AdV: Mais il y a aussi des solutions personnalisées comme les unités de traitement Tensor de Google. Ce sont des choses internes, ils ne les vendent pas.
PB: Oui. Donc on ne peut pas vraiment voir ce que c’est, comme on peut le faire avec TSMC, Nvidia, AMD, n’est-ce pas ?
AdV: Exactement, c’est un peu problématique. Mais on sait que Broadcom utilise une grande partie de la capacité d’assemblage de TSMC, qui est finalement utilisée pour Google. Broadcom est le partenaire de Google pour la fabrication de leurs unités de traitement Tensor.
PB: Oui.
AdV: On peut estimer combien Nvidia et AMD utilisent, mais on n’a pas de bonnes données sur ce qui se passe dans les 40 % restants.
Mais le truc, c’est que quand on regarde les 60 % qu’on connaît, on remarque que tout est maximisé. Les puces — elles utilisent leurs dimensions maximales — elles sont conçues aussi grandes que possible.
PB: Oui.
AdV: Et c’est probablement aussi le cas pour la partie qu’on ne voit pas.
À un certain moment, il devient assez probable que si on peut comprendre 60 %, pour arriver à 100 %, si on connaît la demande énergétique de ces 60 %, elle va probablement correspondre à la capacité d’assemblage disponible.
PB: D’accord.
AdV: Tout simplement parce que tout le monde utilise des spécifications similaires pour les puces qu’ils fabriquent.
PB: Ce que je trouve vraiment intéressant, c’est comment tu relis cela à la consommation énergétique. Une fois que tu as éclairé les blocs de construction fondamentaux grâce à ton approche ascendante, je pense que ce serait très utile pour notre auditoire de comprendre comment tu as ensuite construit une image complète de la demande énergétique de l’IA, aujourd’hui, ces dernières années, et dans le futur.
Et j’aimerais ajouter que j’ai particulièrement apprécié la façon dont tu as essayé de mettre ces chiffres en perspective. Tu nous donnes une idée de ce que ces chiffres représentent en proportion des centres de données mondiaux. Tu as parlé du minage de Bitcoin et tu as pu faire des comparaisons avec cela. Et puis, ce qui est très concret pour beaucoup de lecteurs, c’est la consommation énergétique totale comparée à celle de différents pays.
AdV: En fait, si on veut obtenir des chiffres sur la demande énergétique de l’IA, cela pourrait être aussi simple que d’agréger les données fournies par les grandes entreprises technologiques.
S’ils le faisaient, ils savent exactement combien d’équipements spécialisés ils possèdent, comme je l’ai dit.
PB: Oui.
AdV: Et ils pourraient les fournir, mais ils ne le font pas. Donc, il faut prendre un énorme détour. Mais une fois qu’on le prend, comme je l’ai fait, j’ai pu découvrir que la demande énergétique de l’IA à la fin de l’année dernière équivalait déjà à la consommation de mon pays d’origine, les Pays-Bas.
PB: Incroyable.
AdV: Et là, on parle d’un chiffre qui représente déjà 20 % de la consommation énergétique mondiale des centres de données. Et c’est une augmentation énorme, en pensant que cela s’est produit en deux ans. L’engouement pour l’IA a commencé fin 2022, début 2023, et deux ans plus tard, l’IA est responsable de 20 % de la demande énergétique mondiale.
Et j’ai aussi pu me projeter un peu, car on sait déjà à quoi ressemblera la capacité d’assemblage de TSMC cette année, et on peut déjà dire que si l’approvisionnement continue d’être pleinement utilisé toute l’année, alors à la fin de cette année, on ne parlera plus de 20 % de la consommation électrique des centres de données, mais on s’approchera de la moitié de cette consommation, et juste au cours de cette année, on ajoutera un autre “Pays-Bas”—
PB: Oui.
AdV: —en consommation énergétique pour l’IA. Donc c’est énorme.
L’Agence internationale de l’énergie a aussi récemment publié des chiffres à ce sujet, et elle a souligné que dans les années à venir, les centres de données vont croître au point de représenter 3 à 4 % de la consommation électrique mondiale.
Ils étaient encore un peu plus optimistes concernant la consommation énergétique de l’IA. Ils l’estimaient à environ 15 %, mais si on regarde comment ils arrivent à ce chiffre, on ne peut pas vraiment le dire, car toutes les sources qu’ils utilisent sont basées sur des informations propriétaires provenant de divers analystes.
Et donc on ne peut pas vraiment faire de—
PB: Tests de validation.
AdV: On ne sait pas vraiment comment ça fonctionne de leur côté. Et aussi, la tendance qu’ils montrent ne correspond pas aux déclarations confirmées de TSMC.
Par exemple, si TSMC dit que sa capacité de production va doubler cette année, on s’attend à ce que la demande énergétique au bout de la chaîne double aussi.
Mais quoi qu’il en soit, l’Agence internationale de l’énergie a dit que l’IA allait être un moteur principal, et je pense que si on compare mes recherches à cela, on se rend compte que c’est vrai, et en fait, les choses vont être pires que prévu.
Tout simplement parce que la croissance de l’IA est en réalité plus rapide que ce que l’Agence internationale de l’énergie avait anticipé.
Surtout si on atteint déjà cette année une IA représentant la moitié de la consommation électrique des centres de données.
D’ailleurs, quand on parle de moitié de la consommation électrique des centres de données, je tiens à préciser que cela exclut le minage de cryptomonnaies. Donc ça, ça continue aussi à côté, et c’est encore significatif.
Par exemple, aujourd’hui, le minage de Bitcoin est encore responsable de la consommation de 200 térawattheures d’énergie électrique par an, ce qui représente à lui seul presque la moitié de ce que les centres de données consommaient l’année dernière.
PB: Oui, et encore une fois, en termes d’échelle nationale, on s’approchait probablement des deux tiers du Royaume-Uni et peut-être de la moitié de la France, quelque chose comme ça.
AdV: Oui, en effet. Si on est à 200 térawattheures de consommation électrique, il suffit de considérer que le Royaume-Uni est à environ 260 TWh par an, donc on s’en rapproche beaucoup.
PB: Oui.
AdV: Et ensuite, les centres de données dans leur ensemble, en excluant les mineurs de cryptomonnaies, étaient à environ 415 TWh. Si on ajoute 200 TWh supplémentaires provenant du minage de cryptomonnaies, on dépasse déjà deux fois la consommation du Royaume-Uni—
PB: Oui.
AdV: —en demande énergétique totale pour les centres de données, en incluant l’IA et le minage de cryptomonnaies. Et ce chiffre augmente très rapidement.
C’est aussi pour cela que l’Agence internationale de l’énergie a souligné que si cette croissance continue, dans quelques années, tout cela égalera la consommation énergétique d’un pays comme le Japon, n’est-ce pas ?
Donc, on va y arriver très bientôt. Et c’est assez frappant, car si on pense à la demande énergétique des centres de données au cours de la dernière décennie, elle a été extrêmement stable. Et si on retire le minage de cryptomonnaies et l’IA, elle pourrait encore être assez stable aujourd’hui.
PB: Quand on pense aux implications environnementales, quelles pourraient être les conséquences ?
On vit dans un monde où les émissions, le stress hydrique, les sécheresses, les phénomènes météorologiques extrêmes sont des préoccupations. Comment abordes-tu cela dans ton travail ?
AdV: C’est en fait très difficile de faire une traduction immédiate vers les conséquences environnementales, simplement parce qu’une fois qu’on a un chiffre pour la demande énergétique totale de l’IA, mettre un chiffre en termes d’émissions de carbone ou de consommation d’eau est très compliqué, car on ne sait toujours pas où ces serveurs sont installés.
Et bien sûr, ça change tout si tes serveurs sont alimentés par une combinaison solaire-éolien, ou s’ils reçoivent leur énergie d’une centrale au charbon.
PB: Oui, le mix énergétique varie selon les juridictions.
AdV: Donc, ce n’est pas facile de mettre un chiffre là-dessus. On peut faire quelques déclarations générales sur ce qui est susceptible de se produire, car en augmentant notre demande énergétique totale, cela se fait sur un réseau où la capacité en énergie renouvelable est limitée.
D’abord, notre capacité énergétique totale est limitée. Et ensuite, la part renouvelable de cette capacité est généralement plus faible. En Europe et aux États-Unis, si on regarde les réseaux électriques, en moyenne, on parle de 20 à 25 % d’énergie renouvelable. Et on priorise ces renouvelables.
Donc, on est déjà dans une transition énergétique depuis plusieurs années, ce qui signifie qu’on utilise autant que possible l’énergie verte. Mais si on fait face à une augmentation soudaine de la demande énergétique, cela signifie aussi que cette augmentation ne sera pas alimentée par les renouvelables, car on les utilise déjà au maximum.
Et cela signifie généralement qu’on va utiliser l’infrastructure qu’on essaie justement d’abandonner depuis quelque temps, à savoir les combustibles fossiles, pour répondre à cette demande supplémentaire. C’est la source de secours que nous avons.
Donc, c’est un effet très général : toute augmentation majeure de la demande énergétique augmente généralement notre dépendance à court terme aux combustibles fossiles.
Il y a aussi beaucoup d’eau utilisée pour produire cette énergie. Si on génère de l’électricité à partir de combustibles fossiles, on utilise aussi des systèmes de refroidissement. Et en fait, je pense qu’il est très courant d’utiliser au moins un litre d’eau pour produire un kilowattheure d’énergie.
Donc, si on augmente fortement notre demande énergétique et qu’on utilise des combustibles fossiles pour y répondre, on augmente non seulement les émissions de carbone, mais aussi la consommation d’eau en même temps.
PB: Quand tu penses à ces conséquences, il y a évidemment aussi des considérations locales. Je sais que tu as réfléchi à cela.
Comment envisages-tu cet aspect ?
AdV: Oui, les centres de données peuvent avoir un impact assez important au niveau local. Je pense à des conséquences très évidentes.
Typiquement, les prix de l’énergie vont augmenter, simplement en raison des lois de l’offre et de la demande.
Si ton approvisionnement énergétique est limité et que ta demande augmente soudainement, alors les prix de l’énergie montent. C’est de l’économie de base.
Mais ce n’est qu’un aspect.
Un autre aspect est que, selon la situation locale, si une centrale au charbon est relancée pour alimenter un centre de données qui se trouve dans ton voisinage, pense à ce que cela signifie pour les objectifs climatiques locaux.
Tu vas probablement faire face à des conséquences supplémentaires liées à la pollution de l’air, simplement parce que tu es proche de la source de production d’énergie.
C’est la différence entre ne pas faire fonctionner la centrale au charbon du tout, ou la faire émettre toutes sortes de substances dangereuses dans l’atmosphère, et pas seulement du CO₂.
PB: Quand tu penses à atténuer ces problèmes, comment peut-on chercher à les gérer et à limiter certains de ces effets ?
AdV: C’est la question. Que peut-on faire ?
Mais ce que je dis souvent aux gens, c’est que si on veut commencer à agir, il faut d’abord de meilleures données, car il est très difficile de faire de bonnes politiques si on ne sait pas exactement ce qui se passe.
Il faut faire un énorme détour juste pour comprendre ce qui se passe à l’échelle mondiale, mais qu’est-ce que cela signifie pour les politiques locales ?
Tant qu’on n’a pas de meilleures données, je pense qu’il est presque impossible de mettre en place de bonnes politiques.
PB: Oui, je suis tout à fait d’accord.
En tant qu’analyste, et ce n’est pas seulement pour ce sujet, comme je l’ai dit plus tôt, ce n’est pas toujours qu’on veut plus de données, c’est qu’on veut de meilleures données. On veut des informations utiles.
AdV: Oui, exactement. Et comme je l’ai déjà expliqué pendant notre conversation, cela pourrait être très simple : les entreprises technologiques ont exactement ce dont nous avons besoin, à un niveau très granulaire, mais elles ne le fournissent pas.
Donc, la chose évidente à faire serait d’encourager ces entreprises à commencer à fournir ces informations.
Il y a une entreprise qui l’a fait il y a quelques années. Google a publié des chiffres sur sa consommation énergétique liée à l’IA pour les années 2019 à 2021, et ils ont publié cela en 2022.
C’était la dernière fois qu’ils ont publié ce type d’information avant l’engouement pour l’IA.
Et ils ont dit plusieurs choses. D’abord, que l’IA représentait à l’époque entre 10 % et 15 % de leur consommation énergétique totale — une information extrêmement utile, d’ailleurs — mais ils ont aussi précisé que 60 % étaient consacrés à l’inférence et 40 % à l’entraînement des modèles d’IA.
PB: Oui.
AdV: C’est le seul chiffre concret que nous avons, et nous ne savons pas comment cela a évolué. Ce que nous savons, c’est que depuis l’adoption massive de l’IA, tout le monde utilise ce type de modèle, donc il est très probable que la part liée à l’inférence — qui représentait déjà la majorité avant l’engouement pour l’IA — soit aujourd’hui bien plus importante.
Donc maintenant, on parle peut-être de 80 %, 90 % de la consommation énergétique liée à l’IA dans le cycle de vie d’un modèle, et seulement 10 % à 20 % pour l’entraînement.
Alors, si vous imposez une divulgation sur les coûts d’entraînement, vous n’obtiendrez qu’une toute petite partie de l’image globale.
Et c’est à ce moment-là que la réglementation commence enfin à s’appliquer. Ça pourrait être bientôt, ou ça pourrait encore prendre deux ans.
PB: Oui.
AdV: Et le reste, la partie inférence, est laissée à la divulgation volontaire, et on sait déjà comment ça se passe. Ça ne se passe pas bien.
PB: Alors que les entreprises signalent peut-être qu’elles veulent réduire leurs émissions et atteindre la neutralité carbone ou un objectif intermédiaire, leurs graphiques vont vers le bas et vers la droite.
AdV: Oui.
PB: Et si on regarde la tendance de l’intensité énergétique croissante, due à une économie active, à des conflits mondiaux, à des pressions géoéconomiques, etc., etc., et qu’on ajoute Bitcoin et l’IA par-dessus tout ça, les pressions sur les chiffres d’émissions pour beaucoup de grandes entreprises technologiques vont vers le haut et vers la droite.
AdV: Oui.
PB: Donc elles vont dans la direction opposée. Qu’est-ce qui explique cela selon toi?
AdV: Oui, eh bien c’est très évident. Toutes les grandes entreprises technologiques rapportent une augmentation de leurs émissions de carbone alors qu’elles ont des objectifs de neutralité carbone pour 2030.
Depuis 2020, elles n’ont réussi qu’à augmenter leurs émissions de carbone au lieu de les réduire pour atteindre leur objectif.
Je pense que c’est un indicateur très clair que la croissance est simplement priorisée par rapport à la performance environnementale.
Ce genre de choses met une pression sur les rapports d’émissions des entreprises technologiques.
Ce n’est pas seulement la consommation énergétique opérationnelle. Il faut aussi penser au coût carbone de la fabrication de ce matériel, aux émissions de type Scope 3 dans leurs rapports environnementaux, qui sont aussi très importantes.
Il faut aussi penser au coût environnemental de la construction des centres de données. Construire des centres de données en soi représente déjà un coût environnemental important.
Évidemment, on ne sait pas quel est le ratio entre tout cela, car on n’obtient pas ce type de divulgation.
Mais on sait que tout cela contribue au fait que les chiffres présentés dans les rapports environnementaux des entreprises technologiques ne sont pas bons.
Les émissions de carbone augmentent, et si vous lisez les rapports environnementaux des entreprises technologiques, elles diront : 'Ah, ne vous inquiétez pas, oui, on sait que les chiffres augmentent en ce moment, mais on travaille à rendre le matériel et les logiciels plus efficaces. Et l’IA va aussi contribuer à un monde meilleur, donc cela compensera les coûts supplémentaires que nous avons actuellement.'
Ce sont les excuses typiques qu’on voit, des excuses simplement parce qu’il y a beaucoup de pensée magique, alors qu’on peut voir qu’il y a un impact réel dans le monde. C’est évident dans les chiffres.
PB: Oui.
AdV: Et cela pourrait être compensé plus tard par une application à développer, sans aucune garantie.
Même si c’est le cas, il faut toujours considérer les effets de rebond, comment on peut toujours rendre les choses plus efficaces, mais—
PB: Oui.
AdV: —rendre les biens ou services plus efficaces a aussi généralement pour effet d’augmenter la demande pour ces biens et services. Donc—
PB: Exact.
AdV: —et on appelle ça le paradoxe de Jevons.
Quand l’utilisation totale des ressources finit par être plus élevée que ce qu’elle était au départ à cause de la demande croissante, c’est en fait un phénomène très courant—
PB: Oui. Et pour nos auditeurs, pour rendre cela concret, c’est comme si vous installiez des lumières de Noël plus efficaces, la réponse typique pour la plupart des gens en Amérique du Nord n’est pas d’utiliser la même quantité de lumières, mais d’en utiliser beaucoup plus, n’est-ce pas ?
AdV: Oui, considérez que nous observons déjà ce paradoxe de Jevons à grande échelle avec l’IA, car ces dernières années, ce n’est pas comme si le matériel et les logiciels pour l’IA n’étaient pas devenus plus efficaces. En réalité, ils sont devenus beaucoup plus efficaces.
PB: Oui.
AdV: Mais en même temps, les modèles utilisés sont passés de millions de paramètres à des milliards, et maintenant on parle même de trillions de paramètres.
Donc, on utilise les gains d’efficacité pour rendre les modèles plus grands.
PB: Oui.
AdV: Meilleurs, car plus grand signifie meilleur dans ce cas, ce qui a aussi déclenché une adoption massive de cette technologie, car ces modèles sont désormais suffisamment performants pour que beaucoup de gens veuillent les utiliser.
Et cette combinaison est ce qui fait grimper la demande énergétique de l’IA aux niveaux que nous observons aujourd’hui.
Donc, c’est en fait grâce aux gains d’efficacité que nous avons eus ces dernières années que l’IA est maintenant aussi performante, et que les chiffres augmentent aussi rapidement.
Alors, ne plaçons pas trop d’espoir dans le fait que les gains d’efficacité vont simplement résoudre le problème.
PB: Le comportement humain est tel que, si on trouve des gains d’efficacité, on ne fait pas la même chose ou moins avec les ressources initiales, on en fait plus.
AdV: Oui, exactement. Oui.
PB: On consomme plus parce qu’on a plus de capacité pour faire plus.
Je trouve que c’est une période vraiment intéressante quand on pense aux grandes entreprises technologiques, car je pense que, à bien des égards, plusieurs d’entre elles méritaient une certaine reconnaissance pour avoir tenté de montrer du leadership dans leurs ambitions face aux enjeux environnementaux.
Certaines ont annoncé vouloir atteindre la neutralité carbone. D’autres sont même allées plus loin en disant qu’elles voulaient réduire leurs émissions historiques pour atteindre un niveau net négatif.
Et évidemment, en avançant sur ce chemin, la réalité est toujours plus compliquée qu’on ne le pense. Il y a eu la guerre en Ukraine, l’inflation, l’émergence de cette technologie.
Donc, je trouve que certaines de ces grandes entreprises technologiques cherchent maintenant d’autres options.
On est passé d’un monde de transition énergétique à ce que beaucoup de leaders appellent maintenant l’ajout énergétique.
Comme tu l’as mentionné, si on ne peut pas alimenter tout cela uniquement avec des renouvelables dans un monde idéal, alors il faut faire appel à d’autres formes d’énergie, des formes traditionnelles comme le gaz naturel, le pétrole ou le charbon.
Comment penses-tu que ces entreprises vont gérer cela ?
Je crois que certaines ont indiqué qu’elles prennent des mesures pour se tourner vers le nucléaire, qu’elles essaient de trouver d’autres sources d’énergie.
Y a-t-il une solution évidente selon toi, ou est-ce que ça va être très difficile ?
AdV: Pas vraiment. Le truc, c’est qu’on peut penser à l’énergie nucléaire, mais en réalité, l’énergie nucléaire, si tu as une installation prête à être relancée, alors peut-être que tu peux l’utiliser — c’est une source d’électricité sans carbone.
Mais pense à ce que cela signifie de relancer une centrale nucléaire.
La raison pour laquelle elles sont fermées, c’est qu’elles sont obsolètes. Donc, ce n’est déjà pas simple.
PB: Ça prend beaucoup de temps à construire. On a étudié ces tendances en détail. On ne peut pas simplement claquer des doigts et construire ces choses.
AdV: Non, en effet. On peut parler de relancer des installations nucléaires fermées, mais il n’y a pas beaucoup de candidats viables pour cela.
Et ensuite, on peut parler de construire de nouvelles infrastructures renouvelables, ce qui est aussi très coûteux.
Ça prend beaucoup de temps pour construire ce genre d’infrastructure.
Dans certains cas, il faut facilement une décennie entière pour terminer un projet de construction comme celui-là.
À un moment donné, on a vu Sam Altman aux États-Unis plaider pour que le pays investisse dans un certain nombre de centres de données de cinq gigawatts.
Cinq gigawatts, c’est la production complète d’un réacteur nucléaire.
Je veux dire, où vas-tu mettre ça ?
Si tu regardes un réseau électrique comme celui du Texas, on parle d’une capacité de 80 gigawatts, mais ce réseau est déjà extrêmement sollicité.
Ce n’est pas comme s’ils pouvaient simplement… tu ne peux pas vraiment y ajouter quoi que ce soit, ils ont déjà des problèmes de capacité à certaines périodes de l’année, donc tu ne vas pas pouvoir y ajouter cinq gigawatts de demande supplémentaire, c’est impossible.
PB: Tu as participé récemment à notre Sommet sur la durabilité, notre septième édition annuelle.
On te remercie vraiment d’avoir pris le temps d’y participer. L’un des points que tu as soulevés, que j’ai trouvé très bien dit et très pertinent, c’est que lorsqu’on regarde l’utilisation de l’IA — et je vais utiliser le terme générique comme tu l’as suggéré, évidemment il y a beaucoup d’usages différents — on voit beaucoup de cas d’usage où ce n’est probablement pas nécessaire.
AdV: Oui.
PB: N’est-ce pas ? Peux-tu développer un peu là-dessus, car j’ai trouvé ça vraiment intéressant.
AdV: Oui. C’est une observation plus générale qu’on peut faire avec toutes les technologies émergentes : quand elles arrivent sur le marché, tout le monde s’emballe.
Les attentes sont exagérées et on perd complètement de vue tous les coûts associés à ces nouvelles technologies.
Il y a quelques années, on avait ça avec la blockchain, et on voulait mettre de la blockchain partout, même dans les soins de santé — complètement ridicule. Mais c’est ce qui se passe quand on est en plein dans une période de hype. On a aussi vu Facebook miser tout sur la réalité virtuelle, ils ont même changé de nom pour Meta, mais aujourd’hui, on n’utilise pas la VR pour tout. Et je pense que tout le monde sent bien que la VR, on n’en a clairement pas besoin pour chaque cas d’usage.
PB: Oui, tout à fait.
AdV: Donc, souvent, c’est très utile, quand on essaie d’innover, de vraiment prendre du recul et réfléchir à quel est le vrai problème qu’on essaie de résoudre ici.
Où est la friction dans le système, et quelle est la solution la mieux adaptée, en tenant compte de toutes les technologies disponibles ?
Ne te contente pas de dire : 'OK, maintenant j’ai un grand modèle de langage.'
Ça devient vraiment comme : 'J’ai un marteau, je cherche des clous.'
PB: Oui.
AdV: Il faut toujours essayer de prendre du recul. L’innovation responsable, c’est vraiment, je pense, essayer de trouver la solution la mieux adaptée. Et neuf fois sur dix, ce ne sera probablement pas l’intelligence artificielle. Et 99 fois sur 100, ce ne sera pas une blockchain.
Ces technologies ont leurs propres limites.
PB: Alex, merci d’avoir été avec nous aujourd’hui. Nous sommes vraiment reconnaissants pour toutes tes perspectives, et nous te souhaitons plein de succès dans ton travail ici à Amsterdam et au-delà.
AdV: Merci de m’avoir invité, c’était un plaisir de discuter.
Présentatrice : Merci d’avoir écouté le balado Le point sur les marchés de la Banque Scotia. N’oubliez pas de suivre l’émission sur votre plateforme de balado préférée. Vous pouvez aussi consulter notre site Web https://www.gbm.scotiabank.com/fr.html pour d’autres émissions riches en réflexions.
Patrick Bryden
Managing Director, Global Head of Thematic and Sustainability Investment Research
Alex de Vries-Gao
Founder, Digiconomist
Market Points is designed to provide you with timely insights from Scotiabank Global Banking and Markets' leaders and experts.
Get new episodes right on your device by following us on your preferred podcast network: