Hola compañero, toda la información que te están dando es correcta.
Como programador puedo decirte que no vas a dañar tu PC por usar históricos con gran cantidad de datos, otra cosa es la lentitud tal como te comentan. Te daré algunas pinceladas respecto al tema e la velocidad enfocada al backtest y optimización (que es donde se nota más):
Debes tener en cuenta que el consumo máximo de recursos del pc aumenta mucho (en el caso del meta: cpu, ram y disco duro básicamente), si realizas backtest con datos históricos tick a tick de tantos años como histórico decente exista. Pero hay muchos factores que pueden intervenir en la velocidad de las pruebas:
Factores físicos:
Es evidente que es necesario disponer de una cpu lo más potente posible y tanta ram como pueda gestionar tu sistema operativo si necesitas optimizar sistemas automáticos de forma simultánea, es decir varias plataformas optimizando en un mismo PC. Además como el proceso de optimización y backtest usa datos históricos contenidos en archivos de texto es necesario disponer de un disco duro sólido del tipo SSD SATA III 6Gb con tecnologia NAND MLC o RAPID como mínimo, (cada mes salen nuevos modelos mejorados con nuevas tecnologías que aumentan la velocidad de lectura/escritura).
Factores referentes al software:
Es indispensable disponer de un software (EA) a testar el cual haya sido programado con calidad, es decir: el programador debe tener un buen conocimiento de la plataforma como para realizar el EA con un código que no ralentice por si mismo la ejecución. El código debe estar depurado, la gestión de consultas depuradas, los bucles programados con rotura y con ópción de desactivar de forma automática la visualización de objetos gráficos en la optimización (en el meta la gestión de objetos gráficos ralentiza muchísimo la ejecución).
Además son importantes a nivel de software otros factores como que el experto trabaje tick a tick de forma innecesaria, el número de
indicadores que usa (si son personalizados en muchos casos suelen ralentizar mucho por su mal diseño), el uso de matrices como forma de agilizar partes del código que se suele escribir de forma redundante, etc.
En el caso de optimización y backtest tick a tick, remarcar que es necesario cotejar con dos plataformas distintas los resultados obtenidos pues los históricos tick a tick se corrompen con facilidad debido a que son archivos de texto muy grandes y en muchas ocasiones será necesario volver a descargar históricos y reoptimizar.
En el caso de que operes manualmente, el hecho de tener mucho histórico descargado y además en calidad baja (solo valores de las
velas, no tick a tick), no implica ningún problema de velocidad más que lo que te comentan los compañeros: Si usas muchos indicadores o gráficos abiertos se ralentizará mucho, a parte que con la cantidad de agujeros que tienen los históricos de Metaquotes, los indicadores a veces te pueden dar resultados erróneos que se suelen ver a
simple vista.
Salu2