<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-13T13:16:23Z</responseDate><request verb="GetRecord" identifier="oai:www.recercat.cat:2117/377694" metadataPrefix="marc">https://recercat.cat/oai/request</request><GetRecord><record><header><identifier>oai:recercat.cat:2117/377694</identifier><datestamp>2025-07-23T00:36:23Z</datestamp><setSpec>com_2072_1033</setSpec><setSpec>col_2072_452951</setSpec></header><metadata><record xmlns="http://www.loc.gov/MARC21/slim" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:doc="http://www.lyncode.com/xoai" xsi:schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
   <leader>00925njm 22002777a 4500</leader>
   <datafield ind2=" " ind1=" " tag="042">
      <subfield code="a">dc</subfield>
   </datafield>
   <datafield ind2=" " ind1=" " tag="720">
      <subfield code="a">Gonzalez Infante, Raúl</subfield>
      <subfield code="e">author</subfield>
   </datafield>
   <datafield ind2=" " ind1=" " tag="260">
      <subfield code="c">2022-07-06</subfield>
   </datafield>
   <datafield ind2=" " ind1=" " tag="520">
      <subfield code="a">This project seeks to find if in the actual scenario Reinforcement Learning could help Vehicle Networks to get better performances, concretely applied in the field of resource allocation. It would be tried to allocate a varied number of requests in a network with multiple datacenters, modeling an actual road and city track. To do so, 4 algorithms were implemented, a heuristic and 3 RL approaches, in which we defined a simple DQN and the remaining two that run the same DQN but also include a parameter sharing method. It will be seen that a more sophisticated model must be done in order to demonstrate that Reinforcement Learning is worthwhile, and also, that parameter sharing is a tool that would be very useful for these types of networks as it could work in a very efficient manner.</subfield>
   </datafield>
   <datafield ind2=" " ind1=" " tag="520">
      <subfield code="a">Este proyecto busca encontrar si en un escenario real, el aprendizaje por refuerzo podría ayudar a las nuevas redes de vehículos a obtener mejores rendimientos, aplicadas concretamente en el ámbito de la asignación de recursos. Esto se intentaría hacer asignando un número variado de peticiones a varios centros de datos, modelando una carretera real y un tramo de ciudad. Para ello, se implementaron 4 algoritmos, una heurística y 3 enfoques RL, en los que definimos un DQN simple y los dos restantes que ejecutan el propio DQN, pero también incluyen un método para compartir parámetros. Se verá que debe hacerse un modelo sofisticado para demostrar que el aprendizaje por refuerzo vale la pena, y también, que compartir parámetros es una herramienta que será muy útil para este tipo de redes ya que podría funcionar de una manera muy eficiente.</subfield>
   </datafield>
   <datafield ind2=" " ind1=" " tag="520">
      <subfield code="a">Aquest projecte busca trobar si en un escenari real, l'aprenentatge per reforç podria ajudar a les noves xarxes de vehicles a obtenir millors rendiments, aplicades concretament en l'àmbit de l'assignació de recursos. Això s'intentaria fer assignant un nombre variat de peticions a diversos centres de dades, modelant una carretera real i un tram de ciutat. Per fer-ho, es van implementar 4 algorismes, una heurística i 3 enfocaments RL, en els quals vam definir un DQN simple i els dos restants que executen el mateix DQN, però també inclouen un mètode per compartir paràmetres. Es veurà que s'ha de fer un model sofisticat per demostrar que l'aprenentatge per reforç val la pena, i també, que compartir paràmetres és una eina que serà molt útil per a aquests tipus de xarxes ja que podria funcionar d'una manera molt eficient.</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Àrees temàtiques de la UPC::Enginyeria de la telecomunicació::Telemàtica i xarxes d'ordinadors</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Machine learning</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Computer network protocols</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Computer simulation</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">reinforcement learning</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">dqn</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">resource allocation</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">parameter sharing</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Aprenentatge automàtic</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Simulació per ordinador</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Protocols de xarxes d'ordinadors</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Aprenentatge automàtic</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Protocols de xarxes d'ordinadors</subfield>
   </datafield>
   <datafield tag="653" ind2=" " ind1=" ">
      <subfield code="a">Simulació per ordinador</subfield>
   </datafield>
   <datafield ind2="0" ind1="0" tag="245">
      <subfield code="a">Applying reinforcement learning to network management</subfield>
   </datafield>
</record></metadata></record></GetRecord></OAI-PMH>