Существует ли простой способ сгладить список итераций с пониманием списка, или, если это не удастся, какой, по вашему мнению, лучший способ сгладить такой неглубокий список, сбалансировав производительность и читабельность?
Я попытался выровнять такой список с помощью понимания вложенного списка, вот так:
[image for image in menuitem for menuitem in list_of_menuitems]
Но у меня возникают проблемы с NameError разнообразием там, потому что name 'menuitem' is not defined. Погуглив и покопавшись в Stack Overflow, я получил желаемые результаты с помощью reduce инструкции:
Но этот метод довольно нечитаемый, потому что мне нужен этот list(x) вызов там, потому что x - это объект Django QuerySet.
Заключение:
Спасибо всем, кто внес свой вклад в этот вопрос. Вот краткое изложение того, что я узнал. Я также делаю это вики сообщества на случай, если другие захотят дополнить или исправить эти наблюдения.
Мой оригинальный оператор reduce избыточен и лучше написан таким образом:
>>> reduce(list.__add__, (list(mi) for mi in list_of_menuitems))
Это правильный синтаксис для понимания вложенного списка (блестящее резюме dF!):
>>> [image for mi in list_of_menuitems for image in mi]
Но ни один из этих методов не так эффективен, как использование itertools.chain:
>>> from itertools import chain >>> list(chain(*list_of_menuitems))
И, как отмечает @cdleary, вероятно, лучше избегать * магии оператора, используя chain.from_iterable вот так:
Если вы просто хотите выполнить итерацию по упрощенной версии структуры данных и вам не нужна индексируемая последовательность, рассмотрите itertools.chain и company.
Это будет работать со всем, что можно повторить, что должно включать iterable от Django QuerySets, который, похоже, вы используете в вопросе.
Редактировать: В любом случае, это, вероятно, так же хорошо, как и reduce , потому что reduce будет иметь те же накладные расходы на копирование элементов в расширяемый список. chain повлечет за собой такие же накладные расходы, только если вы запустите list(chain) в конце.
Мета-правка: На самом деле, это требует меньше накладных расходов, чем предлагаемое решение вопроса, потому что вы отбрасываете временные списки, которые создаете, когда расширяете оригинал временными.
Редактировать: Как говорит Дж. Ф. Себастьян,itertools.chain.from_iterable позволяет избежать распаковки, и вам следует использовать это, чтобы избежать * магии, но приложение timeit показывает незначительную разницу в производительности.
Ответ 2
У вас почти получилось! Способ сделать понимание вложенного списка заключается в том, чтобы расположить for операторы в том же порядке, в каком они шли бы в обычных вложенных for операторах.
Таким образом, это
for inner_list in outer_list: for item in inner_list: ...
соответствует
[... for inner_list in outer_list for item in inner_list]
Итак, вы хотите
[image for menuitem in list_of_menuitems for image in menuitem]
Ответ 3
@S.Лотт: Вы вдохновили меня на написание приложения timeit.
Я полагал, что это также будет зависеть от количества разделов (количества итераторов в списке контейнеров) - в вашем комментарии не указано, сколько разделов было из тридцати элементов. На этом графике выравнивается тысяча элементов за каждый запуск с различным количеством разделов. Элементы равномерно распределены между разделами.
def_time_test_assert(iter_lst): """Make sure all methods produce an equivalent value. :raise AssertionError: On any non-equivalent value.""" callables = (globals()[method + '_flatten'] for method in METHODS) results = [callable(iter_lst) forcallablein callables] ifnotall(result == results[0] for result in results[1:]): raise AssertionError
deftime_test(partition_count, item_count_per_partition, test_count=10000): """Run flatten methods on a list of :param:`partition_count` iterables. Normalize results over :param:`test_count` runs. :return: Mapping from method to (normalized) microseconds per pass. """ iter_lst = [[dict()] * item_count_per_partition] * partition_count print('Partition count: ', partition_count) print('Items per partition:', item_count_per_partition) _time_test_assert(iter_lst) test_str = 'flatten(%r)' % iter_lst result_by_method = {} for method in METHODS: setup_str = 'from test import %s_flatten as flatten' % method t = Timer(test_str, setup_str) per_pass = test_count * t.timeit(number=test_count) / test_count print('%20s: %.2f usec/pass' % (method, per_pass)) result_by_method[method] = per_pass return result_by_method
if __name__ == '__main__': iflen(sys.argv) != 2: raise ValueError('Need a number of items to flatten') item_count = int(sys.argv[1]) partition_counts = [] pass_times_by_method = collections.defaultdict(list) for partition_count in xrange(1, item_count): if item_count % partition_count != 0: continue items_per_partition = item_count / partition_count result_by_method = time_test(partition_count, items_per_partition) partition_counts.append(partition_count) for method, result in result_by_method.iteritems(): pass_times_by_method[method].append(result) for method, pass_times in pass_times_by_method.iteritems(): pyplot.plot(partition_counts, pass_times, label=method) pyplot.legend() pyplot.title('Flattening Comparison for %d Items' % item_count) pyplot.xlabel('Number of Partitions') pyplot.ylabel('Microseconds') pyplot.show()
Правка: Решил сделать это вики сообщества.
Примечание:METHODS вероятно, его следует накапливать с помощью декоратора, но я полагаю, что людям будет легче читать таким образом.
Ответ 4
sum(list_of_lists, []) приведет к его выравниванию.
l = [['image00', 'image01'], ['image10'], []] printsum(l,[]) # prints ['image00', 'image01', 'image10']