![]() |
|
|
|||||||
| Регистрация | << Правила форума >> | FAQ | Пользователи | Календарь | Поиск | Сообщения за сегодня | Все разделы прочитаны |
![]() |
|
|
Опции темы | Поиск в этой теме | Опции просмотра |
|
|
|
#1
|
|||
|
|||
|
Есть у кого-нить идеи как перемножить два числа количеством символов до 100? Подскажите пожалуйста.
|
|
#2
|
|||
|
|||
|
Ну, я бы для начала просто тупо реализовал бы "столбик". Не так это и сложно. Числа держать в массивах типа Byte. Ну и выполнять поочереди умножение.
Еще вариант - поищи что-то типа BigInt. встречал реализации подоюного типа... |
|
#3
|
||||
|
||||
|
Цитата:
Нее, бигинт куда как меньше 100 знаков, математикой процессора тут наверное не посчитать, не сможет он в регистр впихать такое числище. Похоже придется действительно эмулировать расчет столбиком. Если не секрет где такие числа используются? |
|
#4
|
|||
|
|||
|
Да эт на учебе задание дали=)
|
|
#6
|
|||
|
|||
|
Хм, мне тоже интересно как это реализовать можно
На заметку: 10 ^ 100 называется гугол (googol, систему Google назвали в честь этого числа ) |
|
#7
|
||||
|
||||
|
Такие большие числа используются в алгоритме шифрования RSA. А для реализации мат. операций с такими числами есть замечательная библиотека называется FGInt
|