> Как заставить работать ЦП в защищенном режиме понял, но из-за нехватки
> информации в свое время -- перепрограммировать контроллер прерываний не смог со
> всеми вытекающими.ИМХО пойнт не в том чтобы зазубрить регистры или команды. А в том чтобы понять идею DMA и осознать что так можно нехило разгрузить проц (правда, это актуально для системщиков а не прикладников). Идею SIMD/MIMD, чтобы понять как это влияет на стиль программирования. Идею различных режимов процессора и прочее, чтобы понять как это работает (деление кернел-юзер прежде всего) и, например, почему частое переключение кернел-юзер - плохо. X86 имхо далеко не лучший для изучения подобных вещей: сложный и кривой, с кучей легаси.
> с курсовой на КР80ВМ80. На этом, пожалуй и все.
i8080 (с которого он дран) не так уж плох чтобы понять основы - он простой. А улучшения которые исторически приделывали - можно постепенно изучать по мере желания/необходимости.
> Сейчас работаю инженером по авт. системам диспетчерского управления в энергетике.
Я так подозреваю что текущий state of art цифровых систем вы не особо мониторите.
> На Github пилю свой проект помаленьку -- pyPC (virtual computer).
Мне из эмуляторов нравится фабрисовское творчество. Фабрис - профессионал, один из грандов отрасли. И поэтому умеет делать программы правильно. И если заметить, он сделал эмулятор на си чтобы применять всерьез, и на JS - поиграться совсем немного и забить, показав забавный фокус ALL-у, там где линух в браузере за вполне разумное время стартует и даже не очень тормозит.
Те эмуляторы которые на си - пошли и захватили мир. В виде qemu/KVM - KVM теперь у половины хостеров в почете. Кроме всего прочего, KVM обеспечивает скорость >90% от железяки в вычислительных задачах и при доступе к памяти. С I/O конечно похуже. Но все-таки довольно близко к железу по скорости при том что это VM с полной изоляцией от системы хоста. Там куча фич, куча оборудования, за годы и годы толпа народа это более-менее отладили и обезглючили (и то грабли случаются). Оно может уйму разных кульных вещей типа проброса девайсов (PCI, USB) с хоста в гуест. Но это серьезный проект, Фабрис и многие другие на это немало времени убабахали. Даже не потому что си, а потому что объем задачи за которую они схапались - огого. Фичность немеряная. Может даже какой-нибудь ARMовский исполняемый файл запустить на х86 системе. Понятно что в этом случае скорость просядет, и уже отнюдь не на несколько процентов. Однако вставить транслятору ARM -> x86 от Фабриса сможет не так уж много программистов на этой планете.
> Состояние зачаточное, но я не тороплюсь, зарплату мне никто не платит. )))
Проблема в общем то в том что для того чтобы сделать хороший эмулятор, который если не натянет Фабриса то по крайней мере покажет что-то сравнимое - надо полжизни положить. Иначе это будет игрушка, демонстрирующая печальный результат, плохо поддерживаемая, на которую скорее всего забьет автор, а остальные вообще не поймут зачем оно надо и проект тихо сойдет на нет. Если под PC понимается эмулятор х86 писюка. А писать эмуль на питоне - это заведомо тормознуть себя по скорости в фиг знает сколько раз. В эмуле чем короче путь по которому трансляция из исходной платформы в целевую - тем лучше (в KVM например большинство команд выполняется напрямую на системном проце, перехватываются только привилегированные команды, что и позволяет ему на чистом счете и доступе к памяти показывать более 90% от оригинала).
> По работе программирование не надо совсем.
И это заметно. Ну вот я например напнулся на какой-то бенч питона/паскаля/сей. И вижу там довольно странное нечто. Во первых я не понимаю что именно оно пыталось отбенчить. Во вторых - а зачем в тугом цикле на каждую итерацию дергать запрос времени (насколько я понял тамошнюю логику)? Это не только искажает результат до неузнаваемости, дерг "сколько времени" еще и может являться "тяжелым" вызовом, который потратит времени сравнимо со всем остальным. Не говоря о том что есть такие вещи как resolution таймера используемого системой/рантаймом как источник времени (точность таймера не бесконечна и весьма системозависима, и в часто дергаемом цикле это вообще-то может роялить).
Нормальные люди делают так: смотрят сколько времени до начала запуска алгоритма, гоняют алгоритм, а потом смотрят сколько времени в конце. Ну а время выполнения алгоритма - конечное время минус начальное. Если было много итераций - деленное на число итераций. Так работа со временем не портит результаты и намного меньше зависит от разрешения системного таймера и чего там еще.