>Большая размерность данных - 165 Input-ов и 1 Output, a глубина данных - 130 000. (Такая себе матрица 166 на 130 000). Из-за такого размерa не могу нормально экспериментировать.
Всем желающим использовать грубую силу компа могу продать свой софт. Без проблем работает с гигабайтом данных (при десятках гиг - надо будет подождать несколько часов). А тут - меньше сотни мегабайт (если данные брать в одинарной точности).
>2. Размерности переменных отличаются на порядок.
Курите правила нормализации (предобработки) данных. НейроСтатистика это умеет
>Прошу, по возможности, подсказать какая сеть будет лучше: архитектура, алгоритм обучения.
К телепатам. Никто Ваших данных и критериев не видел.
>Или хотя бы где найти инфу, которая поможет.
В гугл
Могу заменить гугл и телепатов, если согласитесь оплачивать моё время хотя-бы по расценкам ВУЗовского репетитора.
PS. Форумянам, ищущим инвесторов. Будьте практичнее. Десять старушек, тьфу, студентов - уже рубль (или не рубль, а 10 бесплатных рабочих тел в проект).
-------------------------------------------------------
www.neuropro.ru - нейросети, анализ данных, прогнозирование